محاسبات مرکز داده کارآمدتر

تیم علوم کامپیوتر UTA از کمک هزینه NSF برای بهبود سرعت محاسبات در مراکز داده استفاده می کند

یک تیم علوم کامپیوتر دانشگاه تگزاس در آرلینگتون از کمک مالی 600000 دلاری بنیاد ملی علوم برای توسعه الگوریتم‌هایی برای خدمات مرکز داده مبتنی بر میکروسرویس استفاده می‌کند که امکان استفاده سریع‌تر و کارآمدتر از منابع محاسباتی مرکز داده را فراهم می‌کند.

علاوه بر این، این کمک هزینه برنامه درسی را تقویت می کند و در عین حال از چندین دانشجوی دکترا که روی پروژه کار می کنند حمایت می کند و تجارب تحقیقاتی را برای دانشجویان کارشناسی و دانشجویانی که نمایندگی کمتری دارند ارائه می دهد.

هونگ جیانگ، رئیس و پروفسور وندل اچ. Microservices نوعی ساخت نرم افزار کامپیوتری است که جیانگ آن را با ساختن چیزی با لگو مقایسه کرد.

هر میکروسرویس مجزا را می‌توان به‌عنوان یک بخش لگو مشاهده کرد و می‌توان یک بخش خاص را فعال کرد

جیانگ گفت: خدمات محاسباتی را با کنار هم قرار دادن مجموعه‌ای از قطعات لگو یا ریزسرویس‌ها به جای نیاز به ساختن سرویس از ابتدا انجام دهید. هنگامی که به مقیاس‌بندی یک سرویس محاسباتی ساخته شده با میکروسرویس‌ها می‌روید، می‌توانید فقط به میکروسرویس‌هایی بروید که گلوگاه‌ها را ایجاد می‌کنند و آن‌ها را بدون مقیاس‌گذاری سایر بخش‌های سرویس، مقیاس‌بندی کنید. با این حال، از آنجایی که سرویس‌های محاسباتی مختلف ممکن است ریزسرویس‌ها را به اشتراک بگذارند، نحوه ارائه تضمین عملکرد برای خدمات محاسباتی فردی به یک چالش حیاتی تبدیل می‌شود.

چالش دیگری که جیانگ سعی دارد به آن بپردازد این است که چگونه از منابع میکروسرویس به طور کارآمد استفاده کند.

جیانگ گفت: «توانایی مقیاس‌بندی خدمات در سطح میکروسرویس بهترین عملکرد و زمان پاسخ‌گویی را به شما می‌دهد، اما شما اغلب از تمام قدرت سیستم استفاده نمی‌کنید. «مثل داشتن خودرویی است که 600 اسب بخار قدرت دارد اما فقط 300 اسب بخار از موتور استفاده می کند. پرهزینه است و مورد نیاز نیست.»

ژیجون وانگ، دانشیار تحقیقات علوم کامپیوتر و هائو چه، استاد علوم کامپیوتر، اعضای تیم تحقیقاتی هستند. وانگ گفت که راه حلی که تیم پیشنهاد کرده است باید به این چالش ها رسیدگی کند.

وانگ گفت: «خدمات میکرو در حال حاضر وجود دارد. "کاری که ما در تلاشیم انجام دهیم این است که تضمین عملکرد را برای خدمات محاسباتی فردی ارائه دهیم و در عین حال استفاده از منابع را به حداکثر برسانیم."

چه گفت که چنین به حداکثر رساندن یک مزیت اقتصادی فوق العاده برای تجارت است.

چه گفت: "به ازای هر 100 میلی ثانیه اضافی که مشتری در وب سایت یک کسب و کار منتظر می ماند، احتمال اینکه مشتری بتواند آن را ترک کند چند درصد افزایش می یابد." “ضروری است که به سوالات مشتریانی که در حال مرور وب سایت شما هستند پاسخ سریع و دقیق داده شود. اگر به جای دیگری سفر کنند، این به معنای ضرر واقعی پولی است.»

چند نکته مهم:

مانند بسیاری از شرکت‌های ابری، مایکروسافت قصد دارد نرم‌افزار و سرویس‌های ابری و لبه‌ای بسازد که گویی یک پارچه محاسباتی پیوسته هستند.

مایکروسافت به دنبال پشتیبانی از کل محدوده تجاری اینترنت اشیا، از "لبه کوچک" (به معنی میکروکنترلرها/حسگرها/دستگاه های هدف ثابت) است. به "لبه سبک" Windows IoT Enterprise، Windows Server IoT و تجهیزات صنعتی، روبات ها و کیوسک ها؛ به "Havy Edge" به معنی سرورهای ترکیبی، زیرساخت های همگرا (Azure HCI) و Azure Stack.

راه حل های اینترنت اشیا بیشتر و بیشتر شبیه مراکز داده کوچک هستند و مرزهای بین دستگاه ها، سرورها و ماشین های مجازی محو می شوند.
علاوه بر ادغام بهتر Azure، مایکروسافت به دنبال ایجاد امنیت بین سرویس‌ها و دستگاه‌ها برای ارائه‌های IoT خود است (که من فرض می‌کنم به معنای ادغام Azure Active Directory و سایر موارد است).

مدل‌های برنامه‌نویسی بومی ابری و Kubernetes/کانتینر ارکستراسیون کلیدی برای IoT و استراتژی‌های لبه آن هستند.
مایکروسافت همچنین در بیلد امسال به شدت از ایده "حلقه ترکیبی" استفاده کرد. مفهوم: برنامه های ترکیبی می توانند منابع را به صورت محلی روی رایانه های شخصی و در فضای ابری به صورت پویا تخصیص دهند. ابر به یک منبع محاسباتی اضافی برای این نوع برنامه‌ها تبدیل می‌شود، و برنامه‌های کاربردی - به‌ویژه برنامه‌هایی که دارای هوش مصنوعی/ML هستند - می‌توانند پردازش را به صورت محلی روی یک دستگاه لبه یا در فضای ابری (یا هر دو) انجام دهند. این مفهوم قطعاً متکی بر اینترنت اشیا و دستگاه‌ها و سرویس‌های لبه است که عمیق‌تر با Azure ادغام می‌شوند.

فکر می‌کنم در کنفرانس آی‌تی حرفه‌ای Ignite 2022 که در اواسط اکتبر برگزار می‌شود، در مورد چشم‌انداز IoT به‌روز شده و چشم‌انداز محاسبات لبه‌ای مایکروسافت بیشتر خواهیم شنید.