به گزارش واحد روابط عمومی سازمان ملی کارآفرینی ایران:

این مطلب، دومین مقاله از مجموعه‌ی ترجمه‌های اختصاصی ویژه‌نامه‌ی «هوش مصنوعی ۲۰۲۵» مجله‌ی تایم (Time Magazine: Artificial Intelligence 2025 Special Edition) است.
این مقاله با عنوان «درون رقابت تراشه‌ها» (Inside the Chip Race) نوشته‌ی Billy Perrigo، به بررسی رقابت غول‌های فناوری در حوزه‌ی طراحی و ساخت تراشه‌های اختصاصی هوش مصنوعی می‌پردازد.

درون رقابت تراشه‌ها
رامی سینو در کنار یک کمد بایگانی خم شده و در حالی که با دیسکی به اندازه‌ی توپ ساحلی از داخل جعبه کلنجار می‌رود، صدای خفه‌ای در آزمایشگاهش طنین می‌اندازد.
با خنده می‌گوید: «همین الآن چند ده هزار دلار مواد خام انداختم زمین!»
او دیسک را صاف در دست می‌گیرد؛ یک ویفر سیلیکونی طلایی که در نور فلورسنت آزمایشگاه می‌درخشد. این صفحه‌ی دایره‌ای به حدود صد مربع مستطیل تقسیم شده که هرکدام میلیاردها سوئیچ میکروسکوپی الکتریکی در خود دارند. مغزهای تراشه‌ی پیشرفته‌ی آمازون با نام Trainium2 که در دسامبر ۲۰۲۴ معرفی شد.
سال‌هاست شرکت‌های فعال در حوزه‌ی هوش مصنوعی برای طراحی تراشه‌های پیشرفته‌ای که مدل‌های زبانی قدرتمند جهان را آموزش می‌دهند، به یک شرکت وابسته‌اند: Nvidia. اما با شدت گرفتن رقابت جهانی هوش مصنوعی، غول‌های ابری مانند Amazon و Google تلاش‌های داخلی خود را برای طراحی تراشه‌های اختصاصی سرعت داده‌اند؛ رقابتی برای تصاحب سهم بیشتری از بازار رایانش ابری که در ابتدای سال ۲۰۲۵ ارزشی بیش از ۹۰۰ میلیارد دلار داشت.
این آزمایشگاه ساده در آستین تگزاس، جایی است که آمازون مأموریت خود برای دستیابی به برتری در حوزه‌ی نیمه‌رساناها را پیش می‌برد. سینو یکی از چهره‌های کلیدی این مسیر است؛ او مدیر مهندسی در شرکت Annapurna Labs، زیرمجموعه‌ی طراحی تراشه‌ی آمازون در بخش Amazon Web Services است.
او با گذاشتن محافظ گوش و عبور از اتاق ایزوله، با افتخار مجموعه‌ای از تراشه‌های Trainium2 را نمایش می‌دهد که زیر نظر او طراحی شده‌اند و اکنون مانند نمونه‌های واقعی در یک دیتاسنتر عمل می‌کنند. صدای فن‌های غول‌پیکر به‌قدری بلند است که باید فریاد بزند تا شنیده شود؛ فن‌هایی که هوای داغ حاصل از مصرف بی‌پایان انرژی این تراشه‌ها را به سیستم تهویه‌ی ساختمان منتقل می‌کنند. هر تراشه به‌راحتی در کف دست او جا می‌گیرد، اما مجموعه‌ی کامل آن‌ها شامل مادربردها، کابل‌ها، منبع تغذیه، خنک‌کننده‌ها و ترانزیستورها رک عظیمی را تشکیل می‌دهد که از قد او بلندتر است و صدایش را در میان غرش مداوم سیستم می‌بلعد.
با وجود عظمت این واحد، این تنها نمونه‌ی کوچک‌شده‌ای از زیستگاه واقعی این تراشه‌هاست. به‌زودی هزاران ابررایانه در ابعادی به اندازه‌ی یخچال، در چند مکان نامشخص در خاک آمریکا مستقر و به یکدیگر متصل خواهند شد تا پروژه‌ای موسوم به Project Rainier را شکل دهند. یکی از بزرگ‌ترین خوشه‌های دیتاسنتری که تاکنون در جهان ساخته شده است؛ نام‌گذاری‌شده برگرفته از کوهی که در افق شهر سیاتل، مقر اصلی آمازون، دیده می‌شود.
پروژه‌ی رینییر پاسخ آمازون به پروژه‌ی ۱۰۰ میلیارد دلاری Stargate شرکت‌های OpenAI و Microsoft است که در ژانویه‌ی ۲۰۲۴ با حضور رئیس‌جمهور آمریکا اعلام شد. شرکت‌های Meta و Google نیز هم‌زمان در حال ساخت مراکز داده‌ی عظیم مشابهی هستند که هر یک ده‌ها میلیارد دلار هزینه دارند تا نسل بعدی مدل‌های هوش مصنوعی خود را آموزش دهند.
غول‌های فناوری طی یک دهه‌ی گذشته ذخایر مالی عظیمی انباشته‌اند؛ اکنون همه‌ی آن را برای ساخت زیرساخت فیزیکی غول‌پیکری صرف می‌کنند که به باورشان می‌تواند چهره‌ی جهان را دگرگون کند. تاکنون در تاریخ بشر چنین ابعادی از زیرساخت محاسباتی دیده نشده است.
تعداد دقیق تراشه‌های به‌کاررفته در پروژه‌ی رینییر، هزینه‌ی کل مراکز داده و محل استقرارشان همگی جزو اسرار طبقه‌بندی‌شده هستند. (آمازون درباره‌ی هزینه‌ی دقیق رینییر اظهارنظر نکرده، اما اعلام کرده است که در سال ۲۰۲۵ حدود ۱۰۰ میلیارد دلار سرمایه‌گذاری خواهد کرد که بخش عمده‌ی آن به AWS اختصاص می‌یابد.)
رقابت در این میدان بسیار تنگاتنگ است. آمازون ادعا می‌کند رینییر بزرگ‌ترین خوشه‌ی محاسباتی هوش مصنوعی در جهان خواهد بود عبارتی که به‌وضوح پاسخی به ادعای برتری پروژه‌ی Stargate است.
آمازون پروژه‌ی رینییر را به‌طور ویژه برای تنها یک مشتری می‌سازد: شرکت هوش مصنوعی Anthropic، که قرارداد اجاره‌ی بلندمدتی برای استفاده از این مراکز داده امضا کرده است. در اینجا، روی صدها هزار تراشه‌ی Trainium2 ، شرکت آنتروپیک قصد دارد نسل بعدی مدل‌های معروف خود، یعنی خانواده‌ی Claude را آموزش دهد.
تراشه‌های به‌کاررفته در رینییر در مجموع پنج برابر قدرتمندتر از سیستم‌هایی خواهند بود که نسخه‌های پیشین این مدل‌ها را آموزش داده‌اند. تام براون، هم‌بنیان‌گذار آنتروپیک می‌گوید: «ابعاد پروژه فوق‌العاده بزرگ است، واقعاً خیلی بزرگ‌تر از هر آنچه تاکنون دیده‌ایم.»
هیچ‌کس نمی‌داند جهش عظیم در توان محاسباتی این پروژه چه پیامدهایی خواهد داشت. داریو آمودِی، مدیرعامل آنتروپیک، پیش‌تر پیش‌بینی کرده است که «هوش مصنوعی قدرتمند» اصطلاحی که او به‌جای «هوش مصنوعی عمومی» به کار می‌برد، فناوری‌ای که قادر است اغلب کارها را سریع‌تر و دقیق‌تر از انسان انجام دهد ممکن است تا سال ۲۰۲۶ پدیدار شود.
به‌بیان دیگر، آنتروپیک معتقد است احتمال زیادی وجود دارد که پروژه‌ی رینییر یا یکی از رقبایش، محل تولد نخستین شکل از AGI (هوش مصنوعی فراگیر) باشد.

اثر چرخ‌دنده‌ای و رقابت بی‌پایان
شرکت Anthropic فقط یکی از مشتریان آمازون نیست؛ بخشی از مالکیت آن نیز در اختیار همین غول فناوری است. آمازون تاکنون حدود ۸ میلیارد دلار در آنتروپیک سرمایه‌گذاری کرده و سهام اقلیت در آن دارد. جالب آنکه بخش قابل‌توجهی از این سرمایه در قالب هزینه‌ی اجاره‌ی مراکز داده‌ی AWS دوباره به چرخه‌ی مالی آمازون بازمی‌گردد.
این رابطه‌ی غیرمعمول، یکی از چهره‌های پنهان سازوکارهای محرک صنعت هوش مصنوعی را آشکار می‌کند: آمازون در عمل از آنتروپیک به‌عنوان نمونه‌ای برای نمایش توان زیرساخت‌های ابری و تراشه‌ای خود استفاده می‌کند.
الگوی مشابهی را می‌توان در روابط مایکروسافت با OpenAI و گوگل با DeepMind مشاهده کرد. به گفته‌ی تام براون، هم‌بنیان‌گذار آنتروپیک و مدیر همکاری با آمازون و داشتن یک آزمایشگاه پیشرو روی زیرساخت ابری‌ات، باعث می‌شود همان فضا بهتر و سریع‌تر توسعه یابد. او این رابطه را با همکاری تاریخی AWS و نتفلیکس مقایسه می‌کند؛ زمانی که نتفلیکس در اوایل دهه‌ی ۲۰۱۰ یکی از نخستین مشتریان بزرگ خدمات ابری آمازون بود. چالش توزیع سریع محتوای ویدیویی در مقیاس جهانی موجب شد آمازون بازخوردهایی حیاتی دریافت کند و سامانه‌های خود را در سطحی بی‌سابقه بهینه‌سازی نماید. براون می‌گوید: «آن‌ها مسیر صنعت رایانش ابری را هموار کردند.»
به باور او، همه‌ی شرکت‌های ابری اکنون در تلاش‌اند همان الگو را در عصر هوش مصنوعی تکرار کنند. براون می‌گوید: «همه به دنبال کسی هستند که با قمه در جنگل راه باز کند، چون تا حالا کسی آن مسیر را نرفته است. اما وقتی مسیر باز شد، دیگران هم می‌توانند از آن عبور کنند.»
در نتیجه، آمازون با سرمایه‌گذاری در آنتروپیک که آن سرمایه را دوباره صرف خدمات AWS می‌کند چرخه‌ای خودتقویت‌شونده پدید آورده که خود آن را اثر چرخ‌دنده‌ای (Flywheel Effect) می‌نامد. این چرخه به آمازون کمک می‌کند تا تراشه‌ها و مراکز داده‌ی پیشرفته‌تری بسازد، هزینه‌ی محاسباتی سامانه‌های هوش مصنوعی را کاهش دهد و در عین حال شرکت‌های دیگر را به استفاده از خدمات ابری خود ترغیب کند. در بلندمدت، این روند منجر به جذب مشتریان بیشتر برای AWS می‌شود.
استارتاپ‌هایی مانند OpenAI و Anthropic شاید در مرکز توجه رسانه‌ها باشند، اما برندگان واقعی، همان غول‌های ابری‌اند که زیربنای جهان دیجیتال را در اختیار دارند.
با این حال، آمازون هنوز وابستگی قابل‌توجهی به تراشه‌های Nvidia دارد، در حالی که تراشه‌های سفارشی گوگل با نام TPU از نگاه بسیاری از متخصصان صنعت، از رقبای آمازونی پیشرفته‌ترند.
علاوه بر این، گوگل نیز با سرمایه‌گذاری ۳ میلیارد دلاری و تملک حدود ۱۴ درصد از سهام آنتروپیک، در این رقابت حضور دارد. آنتروپیک برای جلوگیری از وابستگی مطلق، از هر دو بستر ابری گوگل و آمازون استفاده می‌کند.
تراشه‌های Trainium2 که مراکز داده‌ی آمازون را تغذیه خواهند کرد، حاصل تلاش چندساله‌ی این شرکت برای رساندن «اثر چرخ‌دنده‌ای» به نقطه‌ی اوج است.
به گفته‌ی رامی سینو، مدیر مهندسی Annapurna Labs، طراحی Trainium2 بر پایه‌ی بازخوردهای دقیق آنتروپیک از نسل نخست این تراشه‌ها انجام شد.
او می‌گوید: «در مقیاسی که آنتروپیک فعالیت می‌کند، حتی بهبود عملکرد در حد یک صدم درصد هم ارزش بالایی دارد. هرچه بهره‌وری از زیرساخت بیشتر شود، بازگشت سرمایه نیز برای مشتری بالاتر می‌رود.»
هرچه تراشه‌های داخلی آمازون پیشرفته‌تر شوند، وابستگی‌اش به انویدیا کمتر خواهد شد. تقاضا برای تراشه‌های انویدیا آن‌قدر زیاد است که این شرکت می‌تواند مشتریانش را گزینش کرده و قیمت‌ها را بسیار بالاتر از هزینه‌ی تولید تعیین کند.
اما مهندسان آناپورنا به مزیت دیگری اشاره می‌کنند: انویدیا تراشه‌های فیزیکی خود را به‌صورت مستقیم به مشتریان می‌فروشد، در حالی که آمازون تراشه‌های Trainium را نمی‌فروشد، بلکه دسترسی به آن‌ها را در مراکز داده‌ی خود اجاره می‌دهد. این تفاوت بنیادی به آمازون اجازه می‌دهد بهینه‌سازی‌هایی انجام دهد که برای انویدیا تقریباً غیرممکن است.
به گفته‌ی گدی هات، مدیر محصول آناپورنا: «ما درجه‌ی آزادی بسیار بیشتری داریم.»
در پایان، سینو با لبخند به ویفر طلایی سیلیکونی اشاره می‌کند و از نسل بعدی تراشه‌ها سخن می‌گوید: Trainium3 که قرار است در اواخر سال ۲۰۲۵ عرضه شود تراشه‌ای دو برابر سریع‌تر و ۴۰ درصد کم‌مصرف‌تر از نسل پیشین.
به گفته‌ی او، در طراحی این تراشه از شبکه‌های عصبی اجراشده بر روی Trainium2 کمک گرفته شده است؛ نشانه‌ای از اینکه هوش مصنوعی اکنون در حال تسریع روند توسعه‌ی خودش است.
سینو با شور می‌گوید: «این همان چرخ‌دنده است… بی‌وقفه در حال چرخش.»

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *