به گزارش واحد روابط عمومی سازمان ملی کارآفرینی ایران:
این مطلب، چهارمین مقاله از مجموعهی ترجمههای اختصاصی ویژهنامهی «هوش مصنوعی ۲۰۲۵» مجلهی تایم (Time Magazine: Artificial Intelligence 2025 Special Edition) و نوشتهی بیلی پریگو است.
انتشار مدل DeepSeek R1 در ژانویه ۲۰۲۵، والاستریت و سیلیکونولی را شوکه کرد؛ سرمایهگذاران را به وحشت انداخت و رهبران فناوری را تحتتأثیر قرار داد. اما در میان تمام این هیاهو، بسیاری از مردم از جزئیاتی حیاتی در شیوهی عملکرد این مدل جدید هوش مصنوعی چینی غافل ماندند. نکتهای ظریف که پژوهشگران را دربارهی توانایی بشر برای کنترل سامانههای پیشرفتهی هوش مصنوعی نگران کرده است.
همهچیز به یک نوآوری در روش آموزش DeepSeek R1 برمیگردد. نوآوریای که منجر به بروز رفتارهای غیرمنتظره در نسخههای اولیهی مدل شد؛ رفتارهایی که پژوهشگران آن را در اسناد فنی همراه با انتشار مدل توضیح دادهاند.
در جریان آزمایشها، پژوهشگران مشاهده کردند که مدل هنگام حل مسائل، بهصورت خودجوش بین زبان انگلیسی و چینی جابهجا میشود. هنگامی که تلاش کردند آن را مجبور کنند تنها از یک زبان استفاده کند تا درک روند حل برای کاربران آسانتر شود — دریافتند که توانایی مدل در حل همان مسائل کاهش مییابد.
این کشف برای برخی از پژوهشگران حوزهی ایمنی هوش مصنوعی زنگ خطر بود. در حال حاضر، پیشرفتهترین سامانههای هوش مصنوعی «تفکر» خود را در قالب زبانهای قابلخواندن برای انسان انجام میدهند و استدلال خود را پیش از رسیدن به نتیجه مینویسند. این ویژگی، نعمتی برای تیمهای ایمنی بوده است؛ زیرا مؤثرترین ابزارهای نظارتی آنها شامل پایش همین «زنجیرههای تفکر» است تا نشانههایی از رفتارهای خطرناک را تشخیص دهند.
اما یافتههای DeepSeek احتمال وقوع یک گسست را در آینده مطرح کرد: وضعیتی که در آن، قابلیتهای جدید هوش مصنوعی از طریق رهایی مدلها از قید و بند زبان انسانی بهدست آید.
البته جابهجایی زبانی DeepSeek بهخودیخود جای نگرانی ندارد؛ آنچه پژوهشگران را نگران کرده، نوآوری تازهای است که باعث این پدیده شده است. در مقالهی DeepSeek، روش آموزشی جدیدی توصیف شده که طی آن، مدل صرفاً بر اساس درستی پاسخها پاداش میگیرد بدون آنکه درک فرایند استدلالش برای انسانها اهمیتی داشته باشد. نگرانی اینجاست که چنین رویکرد مبتنی بر پاداش ممکن است در نهایت به توسعهی روشهای استدلالی کاملاً غیرقابلفهم برای انسانها منجر شود حتی شاید مدلها زبانهای ویژهی غیرانسانی خود را بسازند، اگر این کار در دستیابی به پاسخهای بهتر مؤثرتر باشد.
سم بومن، مدیر بخش پژوهشی در شرکت Anthropic که بر همترازی هوش مصنوعی با ترجیحات انسانی تمرکز دارد میگوید: «اگر صنعت هوش مصنوعی در این مسیر پیش برود یعنی در پی قدرت بیشتر با کنار گذاشتن شفافیت باشد فرصتی را که میتوانست یک پیروزی آسان برای ایمنی هوش مصنوعی باشد از دست خواهیم داد». او ادامه میدهد: «در آن صورت، ما تواناییای را که شاید تنها ابزارمان برای نظارت بر آنها بود، واگذار خواهیم کرد.»
تفکر بدون واژهها
اینکه یک هوش مصنوعی زبان بیگانهی مخصوص به خود را بسازد، آنقدرها هم غیرواقعی نیست که در نگاه نخست به نظر میرسد.
در دسامبر ۲۰۲۴، پژوهشگران شرکت Meta تصمیم گرفتند فرضیهای را بیازمایند: اینکه زبان انسانی، قالب بهینهای برای انجام استدلال نیست و شاید مدلهای زبانی بزرگ (LLMها، همان سامانههای هوش مصنوعیای که پایهی ChatGPT شرکت OpenAI و DeepSeek R1 هستند) بتوانند در صورتی که از قید و بند زبان رها شوند، با کارایی و دقت بیشتری استدلال کنند.
پژوهشگران Meta مدلی طراحی کردند که بهجای آنکه استدلال خود را با واژهها انجام دهد، از دنبالهای از اعداد بهره میبرد اعدادی که الگوهای تازهی درون شبکهی عصبی مدل را بازنمایی میکردند؛ درواقع، این اعداد بیانگر «موتور استدلال درونی» آن بودند.
آنها دریافتند این مدل شروع به تولید چیزی کرد که پژوهشگران آن را «افکار پیوسته» نامیدند. اعدادی که همزمان چند مسیر استدلالیِ بالقوه را کُدگذاری میکردند. این اعداد کاملاً مبهم و غیرقابلدرک برای چشم انسان بودند، اما این روش به شکل چشمگیری موجب ظهور الگوهای استدلال پیشرفتهی نوظهور در مدل شد. این الگوها باعث شدند مدل در برخی آزمونهای استدلال منطقی، امتیاز بالاتری نسبت به مدلهایی کسب کند که با زبان انسانی استدلال میکردند.
اگرچه پروژهی پژوهشی Meta با کار DeepSeek تفاوتهای زیادی داشت، یافتههای دو پروژه در یک نکتهی کلیدی همراستا بودند.
هر دو نشان دادند که بهگفتهی جرمی هریس، مدیرعامل شرکت Gladstone AI که مشاور دولت آمریکا در زمینهی چالشهای ایمنی هوش مصنوعی است، قابلیت خوانایی برای انسانها، نوعی هزینه یا مالیات بر عملکرد سیستمهای هوش مصنوعی تحمیل میکند. او میگوید: «در نهایت، هیچ دلیلی وجود ندارد که فرایند تفکر یک هوش مصنوعی الزاماً باید برای انسان قابلخواندن باشد.»
و همین امکان، برخی از کارشناسان ایمنی را نگران کرده است.
سم بومن (Sam Bowman)، رئیس تیم ایمنی در شرکت Anthropic، میگوید:
«به نظر میرسد نشانهها آشکارا بیانگر آن باشند که مسیر تازهای برای تحقیقات هوش مصنوعی وجود دارد مسیری که در آن هدف، فارغ از محدودیتهای زبانی دستیابی به بهترین نوع استدلال ممکن است،. انتظار دارم پژوهشگران این رویکرد را در مقیاس وسیعتری دنبال کنند و خطر آنجاست که در نهایت با مدلهایی روبهرو شویم که دیگر نمیتوانیم با اطمینان بگوییم قصدشان چیست، ارزشهایشان کدام است یا در مواجهه با تصمیمهای دشوار بهعنوان یک عامل خودمختار چگونه رفتار خواهند کرد.»
از سوی دیگر، پژوهشگران Meta استدلال کردند که نتایج آنها الزاماً به معنای حذف انسان از معادله نیست. آنان در مقالهی خود نوشتند:
«بهترین حالت آن است که مدلهای زبانی بزرگ بتوانند آزادانه و بدون محدودیتهای زبانی استدلال کنند و تنها زمانی یافتههای خود را به زبان انسانی ترجمه کنند که ضرورت داشته باشد.»
(شرکت Meta در پاسخ به درخواست اظهار نظر دربارهی نگرانی از پیامدهای احتمالی خطرناک این پژوهش، پاسخی ارائه نکرد.)
مرزهای زبان
البته، حتی استدلالهای هوش مصنوعی که برای انسان قابلخواندن هستند نیز بینقص نیستند.
وقتی سامانههای هوش مصنوعی فرایند تفکر خود را به زبان سادهی انگلیسی توضیح میدهند، ممکن است چنین به نظر برسد که صادقانه مراحل استدلالشان را نشان میدهند؛ اما برخی کارشناسان تردید دارند که این توضیحات واقعاً بیانگر نحوهی واقعی تصمیمگیری هوش مصنوعی باشد. این وضعیت را میتوان به پرسیدن از یک سیاستمدار دربارهی انگیزههای پشت یک تصمیم تشبیه کرد. او ممکن است توضیحی خوشظاهر ارائه دهد که ارتباط چندانی با فرایند واقعی تصمیمگیری ندارد.
اگرچه بیان استدلالهای هوش مصنوعی به زبان انسانی روش کاملی نیست، بسیاری از پژوهشگران آن را بهتر از جایگزین احتمالی میدانند: اینکه به هوش مصنوعی اجازه دهیم زبان درونی و اسرارآمیز خود را بسازد که برای ما غیرقابلفهم است.
دانشمندان در حال توسعهی روشهای دیگری برای نگاه کردن به درون سامانههای هوش مصنوعی هستند؛ مشابه همانگونه که پزشکان با استفاده از اسکن مغزی، تفکر انسان را مطالعه میکنند. با این حال، این روشها هنوز نوپا هستند و تاکنون نتوانستهاند راههای قابلاعتمادی برای ایمنتر کردن سامانههای هوش مصنوعی ارائه دهند.
به همین دلیل، بسیاری از پژوهشگران نسبت به تلاشهایی که هوش مصنوعی را به استدلال در قالبی غیر از زبان انسانی تشویق میکند، با دیدهی تردید مینگرند.
سم بومن (Sam Bowman) میگوید:
«اگر این مسیر را دنبال نکنیم، فکر میکنم در موقعیت بسیار بهتری از نظر ایمنی قرار خواهیم داشت. اما اگر آن را ادامه دهیم، در واقع از خودمان مهمترین اهرم را برای کنترل برخی از مسائل بسیار نگرانکننده و حلنشدهی همترازی (alignment) سلب کردهایم.»
