به گزارش واحد روابط عمومی سازمان ملی کارآفرینی ایران:
راهبردها، سرمایهگذاریها و نوآوریها
زیرساخت هوش مصنوعی دیگر فقط یک ملاحظه پشتصحنهای نیست. بلکه بنیانی است که مزیت رقابتی بر آن ساخته میشود. با حرکت شرکتها در مسیر استفاده از هوش مصنوعی مولد از مرحله اثبات مفهوم تا تولید در مقیاس کامل، فشار بر معماریها، پلتفرمها و عملیات آنها با سرعتی بیسابقه در حال افزایش است.
این گزارش ویژه از “وضعیت جهانی هوش مصنوعی مولد در صنعت سازمانی ۲۰۲۶” شما را به درون تصمیمات زیرساختیای میبرد که این تحول را شکل میدهند. این گزارش با تکیه بر هوش بازار جهانی، مطالعات موردی واقعی و روندهای سرمایهگذاری، نگاهی راهبردی به این موضوع دارد که رهبران سازمانی چگونه سیستمهای هوش مصنوعی میسازند که مقیاسپذیر، پایدار و امن باشند.
در این گزارش ویژه خواهید دید:
– چرا محیطهای GPU ترکیبی (Composable GPU Workspaces) بهسرعت جای مراکز داده سنتی را میگیرند و تا ۳۰٪ کاهش در هزینههای عملیاتی به همراه بهبود چشمگیر در تخصیص منابع در محیطهای چندکاربره را فراهم میکنند.
-چطور شبکههای فوتونیک (Photonic Networking Fabrics) زمان انتقال دادههای هوش مصنوعی را تا ۴۰٪ کاهش میدهند و ازدحام را در میان خوشههای هزاران پردازنده از بین میبرند.
– چرا شرکتها استفاده از Edge Computing را افزایش میدهند تا از هوش مصنوعی بلادرنگ پشتیبانی کنند که این امر باعث کاهش تأخیر تا ۷۰٪ در مقایسه با معماریهای صرفاً ابری میشود.
– چگونه زیرساخت پایدار هوش مصنوعی با تراشههای نسل بعدی که ۲۵ برابر مصرف انرژی کمتری دارند و تلاشهای صنعت برای مقابله با ۱.۲ تا ۵ میلیون تن پسماند الکترونیکی مرتبط با هوش مصنوعی تا سال ۲۰۳۰ از آرزو به واقعیت تبدیل میشود .
– دادههای بازار درباره افزایش ۲۶ میلیارد دلاری سرمایهگذاری در زیرساخت هوش مصنوعی مولد در سال ۲۰۲۴ تقریباً چهار برابر سال قبل و فناوریهایی که بیشترین سهم سرمایه را جذب کردهاند.
این گزارش همزمان با برگزاری اجلاس زیرساخت و معماری هوش مصنوعی (۴ تا ۵ نوامبر، هتل هیلتون المپیا لندن) منتشر شده و بینشهایی در اختیار شما قرار میدهد که برای طراحی پلتفرمهایی مقاوم در برابر مقیاس، پیچیدگی و نوآوری مداوم به آن نیاز دارید.
با ادامه تحول هوش مصنوعی و فناوریهای مرتبط، شرکتها سرمایهگذاریهای قابلتوجهی برای توسعه زیرساختهای مقاوم، مقیاسپذیر و کارآمد انجام میدهند. بر اساس مطالعهای در سال ۲۰۲۵ توسطS&P Global Market Intelligence ، سرمایهگذاریهای مرتبط با هوش مصنوعی مولد (GenAI) در سال ۲۰۲۴ از ۵۶ میلیارد دلار فراتر رفت؛ تقریباً دو برابر رقم ۲۹ میلیارد دلاری در سال ۲۰۲۳.
یکی از حوزههای مورد علاقه سرمایهگذاران، لایه زیرساخت است که شامل نیمههادیها، فضای ابری پردازندههای گرافیکی (GPU Cloud)، شبکههای فوتونیک، راهکارهای محاسباتی با تراکم بالا، پردازش لبهای، ابزارهای نرمافزاری و زیرساخت پایدار GenAI میشود. سرمایهگذاری در زیرساخت GenAI در سال ۲۰۲۴ تقریباً چهار برابر شد و به حدود ۲۶ میلیارد دلار رسید، در حالیکه در سال ۲۰۲۳ تنها ۶.۸۶ میلیارد دلار بود.
پنج روند اصلی زیرساخت GenAI عبارتند از:
زیرساخت تجزیهپذیر و ترکیبی :(Disaggregated and Composable Infrastructure)
با گران و غیرمنعطف شدن معماریهای سنتی، شرکتها به سمت زیرساختهای تجزیهپذیر و نرمافزارمحور حرکت میکنند که در آن منابع محاسبات، ذخیرهسازی و شبکه بهطور پویا و بر اساس نیاز بار کاری تخصیص داده میشود. این شامل محیطهای GPU ترکیبی است. بهویژه در محیطهای چندکاربره که بهسرعت در حال جایگزینی مراکز داده سنتی هستند. زیرا امکان جداسازی محاسبات، ذخیرهسازی و شبکه را فراهم میکنند و به سازمانها اجازه میدهند توان GPU را دوباره تخصیص دهند. برای ذینفعان، مزایای راهبردی سرمایهگذاری در محیطهای ترکیبی GPU شامل کارایی هزینه، چابکی عملیاتی، بازگشت سرمایه بهبودیافته و آیندهنگهداشتن فناوری اطلاعات است.
شبکههای فوتونیک برای شتابدهی به هوش مصنوعی :(Photonic Networking for AI Acceleration)
با بزرگتر و پیچیدهتر شدن مدلهای GenAI نیاز به شبکههایی فوقسریع و کمتأخیر افزایش یافته است. اندازه خوشهها باید بهسرعت از چند پردازنده AI در یک سرور به دهها پردازنده در یک رک و هزاران پردازنده در چندین رک گسترش یابد؛ در حالی که همه آنها به پهنای باند بالا و اتصال شبکه کمتأخیر برای مدیریت حجم عظیم انتقال داده متکی هستند. شبکههای فوتونیک استانداردهای جدیدی برای خوشههای AI ایجاد میکنند، بهطور قابلتوجهی زمان انتقال داده را کاهش میدهند و ازدحام شبکه را از بین میبرند. این پلتفرمها اجازه میدهند پردازشهای هوش مصنوعی بهطور یکپارچه، از داخل بستههای پردازنده تا سرورها در چندین رک، متصل شوند.
راهکارهای محاسباتی با تراکم بالا :(High-Density Compute Solutions)
طبق برآوردهای اخیر Deloitte، پیشرفتهای مداوم در هوش مصنوعی و کارایی پردازش داده میتواند مصرف انرژی را تا سطح تقریبی ۱۰۰۰ تراواتساعت در سال ۲۰۳۰ کاهش دهد. این حجم از بارهای کاری هوش مصنوعی به زیرساختهای سختافزاری در مقیاس بزرگ نیاز دارد و راهکارهای محاسباتی با تراکم بالا برای دستیابی به بیشترین بازده در حالیکه مصرف انرژی، خنکسازی و فضای فیزیکی بهینه میشوند، حیاتی هستند. این راهکارها برای هوش مصنوعی مولد در سطح سازمانی، محاسبات با کارایی بالا (HPC) و عملیات مراکز داده ایدهآل هستند.
پردازش لبهای (Edge Computing):
حرکت به سمت پردازش بلادرنگ هوش مصنوعی، نیاز به راهکارهای پردازش لبهای را افزایش میدهد. مدلهای GenAI اغلب به منابع محاسباتی قابلتوجه و حافظه با پارامترهای مدل بزرگ و شبکههای عصبی عمیق (DNNs) نیاز دارند. پردازش لبهای محدودیتهای معماریهای سنتی مبتنی بر ابر را برطرف میکند، زیرا منابع محاسباتی را به منبع داده نزدیکتر میآورد و باعث کاهش تأخیر و مصرف پهنای باند میشود.
زیرساخت پایدار :(Sustainable Infrastructure)
GenAI به توان محاسباتی عظیمی نیاز دارد و همین باعث میشود این فناوری بسیار پرمصرف از نظر انرژی باشد. تولید پردازندههای گرافیکی (GPU) نیازمند فلزات کمیاب است و استخراج این مواد به انتشار گازهای گلخانهای (GHG) منجر میشود.
برآوردهای اخیر نشان میدهد که GenAI میتواند تا سال ۲۰۳۰ مسئول تولید بین ۱.۲ تا ۵.۰ میلیون تن زباله الکترونیکی باشد، که حدوداً ۱۰۰۰ برابر بیشتر از میزان زباله الکترونیکی تولیدشده در سال ۲۰۲۳ است.
شرکتهای فناوری در حال اجرای ابتکارات گوناگونی برای پایدارتر کردن GenAI هستند. این موارد شامل:
- تراشههای کارآمد در مصرف انرژی
- مدلهای کوچکتر
- بهینهسازی اندازه بارهای کاری AI/GenAI
- سرمایهگذاری در منابع انرژی کمکربن
یک نمونه مناسب تراشه جدید Blackwell انویدیا است که عملکردی ۳۰ برابر بهتر برای بارهای کاری مدلهای زبانی بزرگ (LLM) و ۲۵ برابر مصرف انرژی کمتر نسبت به نسل قبلی ارائه میدهد. نمونه دیگر، TensorFlow گوگل و Hugging Face هستند که تکنیکهای کوانتیزاسیون را برای کوچکسازی اندازه مدلها به کار گرفتهاند و در نتیجه توان و منابع موردنیاز کاهش یافته است.
