تین کلاینت

تین کلاینت

تین کلاینت

تین کلاینت

۲۶ مطلب در فروردين ۱۴۰۲ ثبت شده است

  • ۰
  • ۰

تکنولوژی پرینت سه بعدی در دهه 1980 ابداع شد و در ابتدا یک نمونه سازی سریع بود. این فناوری شرکت‌ها را قادر می‌سازد تا نمونه‌های اولیه را با سرعت و دقت بیشتری نسبت به روش‌های دیگر توسعه دهند. با بیش از 30 سال نوآوری، امروزه کاربردهای پرینت سه بعدی بسیار متنوع‌ شده است. چاپ سه بعدی برای تولیدکنندگان، مهندسان، طراحان، مربیان و پزشکان کاربردهای بسیاری را به دنبال دارد. پرینت سه بعدی یک فرآیند تولیدی است که یک شی فیزیکی را به فایل دیجیتالی تبدیل می‌کند. در این فناوری با افزودن لایه به لایه مواد یک شی کامل ساخته می‌شود.

چاپ سه بعدی چیست؟

چاپ سه بعدی (3D Printing) در تعریف ساده به فرایند تولید اجسام سه بعدی از فایل‌های دیجیتال گفته می‌شود. در این روش اجسام سه بعدی به کمک فرایندهای افزودنی تولید می‌شوند. در فرایند افزودنی، اجسام با روی هم قرار گرفتن لایه‌های متعدد ساخته می‌شوند. هر یک از این لایه‌ها به عنوان برشی افقی با ضخامت کم در نظر گرفته می‌شوند. پرینت سه بعدی یا ساخت افزودنی فرآیندی است که در آن اجسام سه بعدی از یک فایل دیجیتال ساخته می‌شوند.

مراحل چاپ سه بعدی 

با اینکه روش‌های مختلفی برای چاپ سه بعدی وجود دارد، اما مراحل اصلی همه آن‌ها مشترک است که در ادامه توضیح می‌دهیم.

ساخت فایل سه بعدی 

اولین مرحله در چاپ سه بعدی ساخت مدل سه بعدی آن در کامپیوتر است. این کار با نرم افزارهای مدل سازی سه بعدی رایج یا CAD انجام می‌شود. در برخی موارد از مهندسی معکوس و اسکن سه بعدی قطعه‌ای که موجود است نیز می‌توان برای ساخت مدل سه بعدی استفاده کرد.

ساخت فایل STL مدل 

برای اینکه چاپگر سه بعدی بتواند مدل سه بعدی طراحی شده را شناسایی کند، فرمت CAD این مدل باید به فرمتی تبدیل شود که برای چاپگر 3بعدی قابل خواندن باشد. به همین منظور، فایل باید به فرمت STL (STL: STereoLithography) تبدیل شود. کاربرد فرمت‌های 3DP و OBJ نیز با محبوبیت کم‌تری دارند. فرمت STL برای معرفی مدل به چاپگر از چند وجهی‌ها یا مثلث‌ها استفاده می‌کند. فایل STL پس از ساخته شدن در داخل یک برنامه که عمل لایه گذاری فایل را انجام می‌دهد، قرار می‌گیرد و نام آن «Slicer» می‌باشد. به این کار در اصطلاح Import نامیده می‌شود. برنامه‌ Slicer مدل را به G-code تبدیل می‌کند. جی کد زبان برنامه نویسی دستگاه‌های Z CNC و چاپگرهای سه بعدی است.

چاپ مدل

دستگاه‌های مختلفی وجود دارند که هر کدام با روش‌های مختلفی مدل را چاپ می‌کنند.

جدا کردن قطعه چاپ شده

در بعضی دستگاه‌ها جدا کردن قطعات کاملا ساده و بدون مشکل انجام می‌شود. البته در بعضی مدل‌های صنعتی‌تر، این کار یک فرایند کاملا فنی و دقیق است.

پس پردازش (Post-Processing)

فرایند پس پردازش یا مرحله پس از تولید در فناوری‌های مختلف متفاوت است. در برخی موارد قطعه باید در برابر اشعه‌ی فرابنفش تولید شود.

چاپ سه بعدی چگونه کار می‌کند؟

نحوه کار پرینتر سه بعدی به این صورت است که   ادامه مطلب...

  • شرکت دانش بنیان رها
  • ۰
  • ۰

با گسترش هوش مصنوعی هر روز بیشتر با کاربردهای آن و همین طور با موقعیت‌های کاری مختلف مربوط به هوش مصنوعی و یادگیری ماشین و دیتا ساینس آشنا می‌شویم. برخی از بزرگ‌ترین شرکت‌های حوزه فناوری مانند: گوگل، مایکروسافت، اپل و تسلا به شکل گسترده‌ای در حال استفاده از یادگیری ماشین هستند. جالب است که بدانید فناوری یادگیری ماشین می‌تواند فرصت‌های شغلی مختلفی را برای متخصصان به وجود آورد. ایران نیز در رتبه‌ی 15 جهان در زمینه هوش مصنوعی قرار دارد و تنها رقیب وی در خاورمیانه کشور ترکیه است. مسلما با پیشرفت روزافزون این حوزه و توسعه کاربردهای آن ایران می‌تواند به زودی جزو 10 کشور برتر در زمینه یادگیری ماشین و هوش مصنوعی قرار بگیرد. دانشگاه‌های معتبر ایرانی تحقیقات زیادی در این حوزه انجام می‌دهند و به پیشرفت‌های قابل توجهی رسیده‌اند. در این مقاله به توضیحات بیشتر درباره وظایف یک مهندس یادگیری ماشین می‌پردازیم.

مهندسان یادگیری ماشین برنامه نویسانی ماهر هستند که به تحقیق، ساخت و طراحی نرم افزارهای self-governing برای خودکارسازی مدل‌های پیش بینی می‌پردازند. یک مهندس ML سیستم‌های هوش مصنوعی (AI) می‌سازد. که از مجموعه داده‌های عظیمی برای تولید و توسعه الگوریتم‌ها استفاده می‌کند که قادر به یادگیری و در نهایت پیش‌بینی هستند. هر بار که نرم افزار عملیاتی را انجام می‌دهد، از آن نتایج «یاد می‌گیرد» تا عملیات آینده را با دقت بیشتری انجام دهد.

مهندس یادگیری ماشین کیست؟

یک مهندس یادگیری ماشین فردی است که با حجم زیادی از داده‌ها روبه رو است.  این فرد داده‌ها را از منابع مختلف مانند: بانک‌های اطلاعاتی، فضای ذخیره سازی ابری، شبکه‌های اجتماعی و بازخوردهای مشتریان را دریافت کرده و تمام داده‌ها را تجزیه و تحلیل و دسته بندی می‌کند. در ادامه الگوریتمی برای پردازش داده‌ها آماده می‌کند، تا بتواند از داده‌های دریافتی نکاتی را بیاموزد و تصمیماتی دقیق و بی نقص بگیرد. طراحی سیستم‌های یادگیری ماشین مستلزم آن است که مهندس یادگیری ماشین، داده‌ها را ارزیابی، تجزیه و تحلیل کند. تا اینکه بتواند فرآیند یادگیری را برای کمک به توسعه مدل‌های یادگیری ماشینی با کارایی بالا، بهینه کند.

مهندس یادگیری ماشین چه کاری انجام می‌دهد؟

کاری که یک مهندس یادگیری ماشین انجام می‌دهد این است که به کامپیوترها اجازه می‌دهد بر مبنای دانشی که به دست آورده‌اند، تصمیماتی را اتخاذ کنند. مهندسان یادگیری ماشین برنامه نویسان بسیار ماهری می‌باشند که سیستم‌های هوش مصنوعی (AI) را توسعه می‌دهند. و از مجموعه داده‌های بزرگ برای تحقیق، توسعه و تولید الگوریتم‌هایی استفاده می‌کنند که می‌توانند یاد بگیرند و پیش بینی کنند. به طور کلی، این نقش مسئول طراحی سیستم‌های یادگیری ماشین است که شامل ارزیابی و سازماندهی داده‌ها، اجرای آزمایش‌ها، و به طور کلی نظارت و بهینه‌ سازی فرآیندهای یادگیری ماشین برای کمک به توسعه سیستم‌های یادگیری ماشینی با عملکرد قوی است. بسیاری از شغل‌ها مستلزم دانش زبان‌های برنامه نویسی مانند: پایتون، جاوا و C/C++ هستند.

یک مهندس یادگیری ماشین با چه کسانی کار می‌کند؟

تیم مهندس ماشین از   ادامه مطلب...

  • شرکت دانش بنیان رها
  • ۰
  • ۰

یک اتاق سرور را تصور کنید که پر از ماشین‌هایی است که کارهای محاسباتی چندین شرکت و سیستم‌های خنک‌کننده را انجام می‌دهند. کارایی اتاق سرور به عملکرد بهینه تجهیزات این اتاق بستگی دارد. به همین دلیل مدیران فناوری اطلاعات باید همواره از کار کردن سرورها به درستی و با ظرفیت کامل اطمینان حاصل کنند. اما چگونه مدیران مرکز داده در نگهداری از تجهیزات IT سر خود را بالاتر از آب نگه می‌دارند؟ چگونه مرکز داده می‌تواند سطح بالایی از عملکرد را حفظ کند و در عین حال هزینه‌ها و مصرف انرژی را کاهش دهد؟ یکی از روش‌ها مانیتورینگ اتاق سرور است. در ادامه با این پدیده بیشتر آشنا می‌شوید.

اهمیت مانیتورینگ اتاق سرور

مانیتورینگ اتاق سرور برای زمانی که شرکت‌ها بخواهند در هزینه‌های خود صرفه‌جویی کنند یک گزینه ایده آل محسوب می‌شود. حسگرهای دما که در مکان‌های استراتژیک اطراف اتاق سرور قرار می‌گیرند اطلاعاتی را درباره گرم، خنک یا مرطوب بودن مرکز داده به مدیران IT ارائه می‌دهند. با این داده‌ها، کارکنان فناوری اطلاعات می‌دانند که چگونه باید مکانیسم‌های خنک کننده را تنظیم کنند و از مشکلات پرهزینه اتاق سرور جلوگیری کنند.

وقتی شرکت‌ها روی فناوری‌های مانیتورینگ اتاق سرور مانند سرمایه‌گذاری می‌کنند، در درازمدت هم در بهره‌وری انرژی و هم صرفه‌جویی در هزینه‌ها تاثیرات مثبتی ایجاد می‌کند. سیستم‌های نظارت بر رطوبت و دما اتاق سرور با هشدارهای داخلی ارائه می‌شوند تا کارکنان فناوری اطلاعات بدانند چه زمانی تجهیزات و تنظیمات را تغییر دهند. به این ترتیب از طریق هشدارها و ترفندهای سیستم‌های خنک کننده می‌توان دمای اتاق سرور را به راحتی مدیریت کرد و مراکز داده می‌توانند به حداکثر بازدهی دست یابند.

مانیتورینگ اتاق سرور چیست؟

سیستم‌ مانیتورینگ اتاق سرور شما را قادر می‌سازد تا به طور فعال شرایط را در رک، اتاق سرور، مرکز داده یا هر مکان دیگر نظارت کنید. مواردی که به نظارت نیاز دارند شامل دماهای شدید، رطوبت، نوسانات برق، نشت آب، دود و مواد شیمیایی است. با نظارت مناسب بر محیط اتاق سرور از شرایط نامطلوب تجهیزات در سریع‌ترین زمان ممکن آگاه می‌شوید. یک سیستم مانیتورینگ محیطی از سه عنصر اصلی تشکیل شده است: یک هاب، حسگرها، و اتصال و یکپارچگی شبکه. هاب‌ها ممکن است شامل یک یا چند حسگر داخلی و همچنین پورت‌هایی برای اتصال پروب های خارجی باشند. آن‌ها همچنین دارای یک پورت اترنت هستند و نرم افزاری برای پیکربندی و نمودار از راه دور دارند. این نرم افزار ممکن است با نرم افزارهای مدیریت شبکه موجود مانند سیستم‌های SNMP نیز کار کند.

نقش مانیتورینگ اتاق سرور برای کسب و کار شما 

مانیتورینگ اتاق سرور از قلب کسب و کار شما محافظت می‌کند. نظارت و   ادامه مطلب...

  • شرکت دانش بنیان رها
  • ۰
  • ۰

هوش مصنوعی شاهد رشد چشمگیری در پر کردن شکاف بین توانایی‌های انسان و ماشین بوده است. محققان و علاقه مندان به طور یکسان، روی جنبه‌های متعددی از این رشته کار می‌کنند تا بتوانند اتفاقات شگفت انگیزی را رقم بزنند. یکی از این حوزه‌ها، حوزه بینایی کامپیوتر است. پیشرفت‌های بینایی رایانه‌ای با یادگیری عمیق در گذشت زمان، عمدتا بر روی یک الگوریتم خاص یک شبکه عصبی کانالوشن، ساخته و تکمیل شده است.

شبکه عصبی کانولوشن برای یافتن الگوهایی در تصاویر برای تشخیص اشیا، چهره‌ها و صحنه‌ها مفید می‌باشد. آن‌ها همچنین می‌توانند برای طبقه بندی داده‌های غیر تصویری مانند: صدا، داده‌های سیگنال کاملا موثر باشند. برنامه‌هایی که به تشخیص اشیا و دید کامپیوتری نیاز دارند. مانند: وسایل نقلیه خودران و برنامه‌های تشخیص چهره به شدت به CNNها متکی هستند.

توضیحی مختصر درباره بینایی کامپیوتر

بینایی کامپیوتری حوزه‌ای از هوش مصنوعی است که به رایانه‌ها و سیستم‌ها این قابلیت را می‌دهد؛ تا اطلاعات معنا داری را از تصاویر دیجیتال، ویدئوها و سایر ورودی‌های بصری به دست آورند. و بر اساس آن اطلاعات، اقداماتی انجام دهند یا توصیه‌هایی را ارائه کنند. هوش مصنوعی رایانه‌ها را قادر می‌سازد فکر کنند، بینایی رایانه آن‌ها را قادر می‌سازد که ببینند، مشاهده کنند و بفهمند.  

انواع مختلفی از شبکه‌های عصبی وجود دارد. به عنوان مثال: شبکه‌های عصبی مکرر که معمولا برای پردازش زبان طبیعی و تشخیص گفتار استفاده می‌شوند. در حالی که شبکه‌های عصبی کانولوشنال (یا CNN) اغلب برای طبقه ‌بندی و وظایف بینایی کامپیوتری مورد استفاده قرار می‌گیرند.

تعریف شبکه عصبی کانولوشن

شبکه عصبی کانولوشن (CNN) نوعی شبکه عصبی مصنوعی می‌باشد. که در تشخیص و پردازش تصویر استفاده می‌شود و به طور خاص برای پردازش داده‌های پیکسلی طراحی شده است. شبکه عصبی سیستمی از سخت افزار و یا نرم افزار می‌باشد. که از عملکرد نورون‌ها در مغز انسان الگوبرداری شده است. CNN نورون‌های خود را بیشتر شبیه نورون‌های لوب فرونتال، ناحیه‌ای که مسئول پردازش محرک‌های بصری در انسان و سایر حیوانات است، مرتب می‌کند. لایه‌های CNN شامل یک لایه ورودی، یک لایه خروجی و یک لایه پنهان است. 

دستور کار در زمینه شبکه‌های عصبی کانولوشن این است که ماشین‌ها را قادر سازد تا جهان را مانند: انسان‌ها ببینند، آن را به شیوه‌ای مشابه درک کنند و حتی از این دانش برای بسیاری از وظایف مشابه استفاده کنند. مانند: تشخیص تصویر و ویدئو، تجزیه و تحلیل و طبقه بندی تصویر و باز آفرینی رسانه‌ها مورد استفاده قرار می‌گیرد. شبکه عصبی کانولوشن (CNN)، یک معماری شبکه برای یادگیری عمیق است که مستقیما از داده‌ها یاد می‌گیرد. شبکه‌های عصبی کانولوشنال زیر مجموعه‌ای از   ادامه مطلب...

  • شرکت دانش بنیان رها
  • ۰
  • ۰

مجازی سازی شبکه به تبدیل شبکه سخت افزاری به یک شبکه مبتنی بر نرم افزار گفته می‌شود. مجازی‌سازی شبکه مانند سایر مجازی‌ سازی‌ها یک لایه میان سخت‌افزار فیزیکی و برنامه‌ها و سرویس‌ها ایجاد می‌کند. اصلی‌ترین کاربرد مجازی سازی شبکه بهبود عملکرد، انعطاف پذیری، مقیاس پذیری و ایجاد امنیت در شبکه است. پیاده سازی مجازی سازی در شبکه‌هایی که کارایی قابل توجهی دارند بسیار سودمند خواهد بود.

مجازی‌سازی منابع شبکه را با یکدیگر ترکیب می‌کند و با تقسیم پهنای باند، کانال‌ها را از یکدیگر جدا می‌کند. این کانال‌ها بسیار ایمن هستند و کاربر از طریق یک ماشین به منابع شبکه دسترسی دارد. به همین ترتیب، مدیران شبکه بار کاری را تغییر می‌دهند و قوانین و برنامه‌ها را راحت‌تر تنظیم می‌کنند تا از تنظیمات وقت‌گیر جلوگیری شود. کاربران به دنبال پیاده سازی این فناوری همواره می‌توانند به برنامه‌های قابل اعتماد و امن دسترسی داشته باشند.

مجازی سازی شبکه چگونه کار می‌کند؟

مجازی‌سازی خدمات شبکه را از سخت‌افزاری که روی آن اجرا می‌شود، جدا می‌کند تا شبکه به عنوان یک ماشین مجازی ارائه شود. مدیریت شبکه مبتنی بر نرم افزار به لطف این فناوری امکان پذیر خواهد شد. منابع شبکه فیزیکی توسط نرم افزار (فایروال، لود بالانسر و VPN ها) ارائه می‌شود و بسته های IP را از شبکه فیزیکی زیرساخت ارسال می‌کند.

نرم افزار مجازی سازی شبکه تجهیزات فیزیکی مانند روترها، سوئیچ‌ها، لود بالانسرها و فایروال‌ها را شبیه سازی می‌کند. این سیستم سطوح متعددی دارد که در شبکه مجازی می‌شوند. نرم‌ افزار مجازی‌سازی از طریق استفاده از نمایش‌های سخت‌افزار و نرم‌افزار مجازی یک شبکه‌ واحد ایجاد می‌کند. منابع مجازی‌ برای کاهش هزینه‌ها می‌توانند بر روی سخت‌افزارهایی مانند ماشین‌های مجازی (VM) یا کانتینرها کار کنند. نرم افزار شبکه مجازی تضمین می‌کند که خدمات شبکه در راستای سیاست‌های تعیین شده انجام شود.

کاربرد مجازی سازی شبکه برای کسب و کارها

جهان به سرعت در حال تغییر است و کسب و کارهای امروزی به یک زیرساخت شبکه عالی نیاز دارند. جای تعجب نیست که مشاغل باید سرمایه‌گذاری‌های زیرساخت شبکه خود را بهینه کنند تا کارایی خود را در شرایط مختلف حفظ نمایند.

مقرون به صرفه

روزهایی که مجبور بودید با راهکارهای دستی و به روز رسانی‌های پرهزینه و وقت گیر دست و پنجه نرم کنید، گذشته است. اکنون کسب ‌و کارها نیازهای خود را با استفاده از شبکه‌ای مقرون ‌به ‌صرفه برآورده می‌کنند. این امر مجازی سازی شبکه را به یک استراتژی برای بسیاری از شرکت‌ها تبدیل کرده است. مجازی سازی هزینه‌های عملیات را با خودکار کردن فرآیندهای مدیریتی کاهش می‌دهد. علاوه بر این، خدمات تجاری را با پیاده‌سازی یک زیرساخت‌ شبکه مقیاس‌پذیر بهبود می‌بخشد و مدیران شبکه را قادر می‌سازد تا  ادامه مطلب...

  • شرکت دانش بنیان رها
  • ۰
  • ۰

گوردون مور، یکی از بنیان گذاران کمپانی اینتل است که شهرت خود را به دلیل نظریه‌ای که در سال 1965 ارائه داد، به دست آورده است. بر اساس Moore's Law تعداد ترانزیستورهای مورد استفاده در پردازنده‌ها هر دو سال یک بار دو برابر خواهد شد. قانون مور در دهه‌های متمادی صادق بود و بخش عمده‌ای از آن به خاطر توسعه در فناوری‌های تولید تراشه (Process Node) ممکن است. به بیان دیگر، ترانزیستورها در داخل تراشه‌ها، سال به سال با کاهش ابعاد رو به رو می‌شدند و در نتیجه چگالی آن‌ها بیشتر می‌شد.
قانون مور چیست؟
Moore's Law یا قانون مور به تصور ذهنی آقای گوردون مور(Gordon Moore) اشاره دارد که بیان می کند تعداد ترانزیستورهای روی یک ریزتراشه هر دو سال یکبار دو برابر می‌شود و هزینه رایانه‌ها به نصف می‌رسد. قانون مور بیان می‌کند که ما می‌توانیم انتظار داشته باشیم که سرعت و توانایی رایانه‌ها هر چند سال یکبار افزایش یابد و هزینه کم‌تری برای آن‌ها بپردازیم. یکی دیگر از اصول Moore's Law ادعا می‌کند که این رشد تصاعدی است.
قانون کومی جایگزینی برای قانون مور 
 قانون کومی بیشتر به نحوه تجربه‌ای که کاربران امروزی از دنیای محاسبات دارند، مربوط می‌شود. و البته راهی برای ایجاد نقشه دنیای فناوری است. زندگی دیجیتال ما به سمتی حرکت می‌کند که از چندین دستگاه استفاده می‌کنیم و شارژدهی باتری همچنین عملکرد به ازای Watt، اهمیت بالاتری نسبت به توان خالص به صورت جداگانه دارد.
به اعتقاد ایتکن، شرکت‌ها دیگر نباید توان پردازشی را بالاتر از صرفه جویی انرژی و حفظ زمین قرار دهند. به گفته مدیر فناوری ارم، قانون کومی و مور، قوانین طبیعت نیستند؛ بلکه راهکاری برای تعیین مسیر دنیای فناوری به حساب می‌آیند. و ما می‌توانیم از آن‌ها در مسیری که قرار داریم استفاده کنیم. قانون مور باعث شده تولید کنندگان روی افزایش توان پردازشی در گذر زمان تمرکز کنند. اما قانون کومی روی این موضوع تمرکز دارد که چه تعداد محاسبات می‌توان از هر واحد انرژی مصرف شده بدست آورد. این قانون بیشتر با طبیعت و محیط زیست سازگار است. به گفته ایتکن، دستیابی به بالاترین عملکرد به ازای Watt هر چیزی است که از ابتدا در DNA این صنعت وجود داشته است.
علت استفاده از قوانین مور در سال‌های اخیر 
در سال 1965، گوردون مور، یکی از بنیانگذاران اینتل، این مشاهدات را انجام داد که به Moore's Law معروف شد. یکی دیگر از اصول قانون مور می‌گوید که رشد ریزپردازنده‌‎ها نمایی است. Moore's Law نشان می‌دهد که رایانه‌ها، ماشین‌هایی که روی رایانه‌ها کار می‌کنند، و قدرت محاسباتی همه با گذشت زمان کوچک‌تر، سریع‌تر و ارزان‌تر می‌شوند، زیرا ترانزیستورهای مدارهای مجتمع کارآمدتر می‌شوند. بیش از 50 سال بعد، ما تاثیر و مزایای پایدار Moore's Law را از بسیاری جهات احساس می‌کنیم.
همانطور که ادامه مطلب...

  • شرکت دانش بنیان رها