تیم علوم کامپیوتر UTA از کمک هزینه NSF برای بهبود سرعت محاسبات در مراکز داده استفاده می کند
یک تیم علوم کامپیوتر دانشگاه تگزاس در آرلینگتون از کمک مالی 600000 دلاری بنیاد ملی علوم برای توسعه الگوریتمهایی برای خدمات مرکز داده مبتنی بر میکروسرویس استفاده میکند که امکان استفاده سریعتر و کارآمدتر از منابع محاسباتی مرکز داده را فراهم میکند.
علاوه بر این، این کمک هزینه برنامه درسی را تقویت می کند و در عین حال از چندین دانشجوی دکترا که روی پروژه کار می کنند حمایت می کند و تجارب تحقیقاتی را برای دانشجویان کارشناسی و دانشجویانی که نمایندگی کمتری دارند ارائه می دهد.
هونگ جیانگ، رئیس و پروفسور وندل اچ. Microservices نوعی ساخت نرم افزار کامپیوتری است که جیانگ آن را با ساختن چیزی با لگو مقایسه کرد.
هر میکروسرویس مجزا را میتوان بهعنوان یک بخش لگو مشاهده کرد و میتوان یک بخش خاص را فعال کرد
جیانگ گفت: خدمات محاسباتی را با کنار هم قرار دادن مجموعهای از قطعات لگو یا ریزسرویسها به جای نیاز به ساختن سرویس از ابتدا انجام دهید. هنگامی که به مقیاسبندی یک سرویس محاسباتی ساخته شده با میکروسرویسها میروید، میتوانید فقط به میکروسرویسهایی بروید که گلوگاهها را ایجاد میکنند و آنها را بدون مقیاسگذاری سایر بخشهای سرویس، مقیاسبندی کنید. با این حال، از آنجایی که سرویسهای محاسباتی مختلف ممکن است ریزسرویسها را به اشتراک بگذارند، نحوه ارائه تضمین عملکرد برای خدمات محاسباتی فردی به یک چالش حیاتی تبدیل میشود.
چالش دیگری که جیانگ سعی دارد به آن بپردازد این است که چگونه از منابع میکروسرویس به طور کارآمد استفاده کند.
جیانگ گفت: «توانایی مقیاسبندی خدمات در سطح میکروسرویس بهترین عملکرد و زمان پاسخگویی را به شما میدهد، اما شما اغلب از تمام قدرت سیستم استفاده نمیکنید. «مثل داشتن خودرویی است که 600 اسب بخار قدرت دارد اما فقط 300 اسب بخار از موتور استفاده می کند. پرهزینه است و مورد نیاز نیست.»
ژیجون وانگ، دانشیار تحقیقات علوم کامپیوتر و هائو چه، استاد علوم کامپیوتر، اعضای تیم تحقیقاتی هستند. وانگ گفت که راه حلی که تیم پیشنهاد کرده است باید به این چالش ها رسیدگی کند.
وانگ گفت: «خدمات میکرو در حال حاضر وجود دارد. "کاری که ما در تلاشیم انجام دهیم این است که تضمین عملکرد را برای خدمات محاسباتی فردی ارائه دهیم و در عین حال استفاده از منابع را به حداکثر برسانیم."
چه گفت که چنین به حداکثر رساندن یک مزیت اقتصادی فوق العاده برای تجارت است.
چه گفت: "به ازای هر 100 میلی ثانیه اضافی که مشتری در وب سایت یک کسب و کار منتظر می ماند، احتمال اینکه مشتری بتواند آن را ترک کند چند درصد افزایش می یابد." “ضروری است که به سوالات مشتریانی که در حال مرور وب سایت شما هستند پاسخ سریع و دقیق داده شود. اگر به جای دیگری سفر کنند، این به معنای ضرر واقعی پولی است.»
چند نکته مهم:
مانند بسیاری از شرکتهای ابری، مایکروسافت قصد دارد نرمافزار و سرویسهای ابری و لبهای بسازد که گویی یک پارچه محاسباتی پیوسته هستند.
مایکروسافت به دنبال پشتیبانی از کل محدوده تجاری اینترنت اشیا، از "لبه کوچک" (به معنی میکروکنترلرها/حسگرها/دستگاه های هدف ثابت) است. به "لبه سبک" Windows IoT Enterprise، Windows Server IoT و تجهیزات صنعتی، روبات ها و کیوسک ها؛ به "Havy Edge" به معنی سرورهای ترکیبی، زیرساخت های همگرا (Azure HCI) و Azure Stack.
راه حل های اینترنت اشیا بیشتر و بیشتر شبیه مراکز داده کوچک هستند و مرزهای بین دستگاه ها، سرورها و ماشین های مجازی محو می شوند.
علاوه بر ادغام بهتر Azure، مایکروسافت به دنبال ایجاد امنیت بین سرویسها و دستگاهها برای ارائههای IoT خود است (که من فرض میکنم به معنای ادغام Azure Active Directory و سایر موارد است).
مدلهای برنامهنویسی بومی ابری و Kubernetes/کانتینر ارکستراسیون کلیدی برای IoT و استراتژیهای لبه آن هستند.
مایکروسافت همچنین در بیلد امسال به شدت از ایده "حلقه ترکیبی" استفاده کرد. مفهوم: برنامه های ترکیبی می توانند منابع را به صورت محلی روی رایانه های شخصی و در فضای ابری به صورت پویا تخصیص دهند. ابر به یک منبع محاسباتی اضافی برای این نوع برنامهها تبدیل میشود، و برنامههای کاربردی - بهویژه برنامههایی که دارای هوش مصنوعی/ML هستند - میتوانند پردازش را به صورت محلی روی یک دستگاه لبه یا در فضای ابری (یا هر دو) انجام دهند. این مفهوم قطعاً متکی بر اینترنت اشیا و دستگاهها و سرویسهای لبه است که عمیقتر با Azure ادغام میشوند.
فکر میکنم در کنفرانس آیتی حرفهای Ignite 2022 که در اواسط اکتبر برگزار میشود، در مورد چشمانداز IoT بهروز شده و چشمانداز محاسبات لبهای مایکروسافت بیشتر خواهیم شنید.