به گزارش واحد روابط عمومی سازمان ملی کارآفرینی ایران:

این مطلب، چهارمین مقاله از مجموعه‌ی ترجمه‌های اختصاصی ویژه‌نامه‌ی «هوش مصنوعی ۲۰۲۵» مجله‌ی تایم (Time Magazine: Artificial Intelligence 2025 Special Edition) و نوشته‌ی بیلی پریگو است.

انتشار مدل DeepSeek R1 در ژانویه ۲۰۲۵، وال‌استریت و سیلیکون‌ولی را شوکه کرد؛ سرمایه‌گذاران را به وحشت انداخت و رهبران فناوری را تحت‌تأثیر قرار داد. اما در میان تمام این هیاهو، بسیاری از مردم از جزئیاتی حیاتی در شیوه‌ی عملکرد این مدل جدید هوش مصنوعی چینی غافل ماندند. نکته‌ای ظریف که پژوهشگران را درباره‌ی توانایی بشر برای کنترل سامانه‌های پیشرفته‌ی هوش مصنوعی نگران کرده است.
همه‌چیز به یک نوآوری در روش آموزش DeepSeek R1 برمی‌گردد. نوآوری‌ای که منجر به بروز رفتارهای غیرمنتظره در نسخه‌های اولیه‌ی مدل شد؛ رفتارهایی که پژوهشگران آن را در اسناد فنی همراه با انتشار مدل توضیح داده‌اند.
در جریان آزمایش‌ها، پژوهشگران مشاهده کردند که مدل هنگام حل مسائل، به‌صورت خودجوش بین زبان انگلیسی و چینی جابه‌جا می‌شود. هنگامی که تلاش کردند آن را مجبور کنند تنها از یک زبان استفاده کند تا درک روند حل برای کاربران آسان‌تر شود — دریافتند که توانایی مدل در حل همان مسائل کاهش می‌یابد.
این کشف برای برخی از پژوهشگران حوزه‌ی ایمنی هوش مصنوعی زنگ خطر بود. در حال حاضر، پیشرفته‌ترین سامانه‌های هوش مصنوعی «تفکر» خود را در قالب زبان‌های قابل‌خواندن برای انسان انجام می‌دهند و استدلال خود را پیش از رسیدن به نتیجه می‌نویسند. این ویژگی، نعمتی برای تیم‌های ایمنی بوده است؛ زیرا مؤثرترین ابزارهای نظارتی آن‌ها شامل پایش همین «زنجیره‌های تفکر» است تا نشانه‌هایی از رفتارهای خطرناک را تشخیص دهند.
اما یافته‌های DeepSeek احتمال وقوع یک گسست را در آینده مطرح کرد: وضعیتی که در آن، قابلیت‌های جدید هوش مصنوعی از طریق رهایی مدل‌ها از قید و بند زبان انسانی به‌دست آید.
البته جابه‌جایی زبانی DeepSeek به‌خودی‌خود جای نگرانی ندارد؛ آنچه پژوهشگران را نگران کرده، نوآوری تازه‌ای است که باعث این پدیده شده است. در مقاله‌ی DeepSeek، روش آموزشی جدیدی توصیف شده که طی آن، مدل صرفاً بر اساس درستی پاسخ‌ها پاداش می‌گیرد بدون آن‌که درک فرایند استدلالش برای انسان‌ها اهمیتی داشته باشد. نگرانی اینجاست که چنین رویکرد مبتنی بر پاداش ممکن است در نهایت به توسعه‌ی روش‌های استدلالی کاملاً غیرقابل‌فهم برای انسان‌ها منجر شود حتی شاید مدل‌ها زبان‌های ویژه‌ی غیرانسانی خود را بسازند، اگر این کار در دستیابی به پاسخ‌های بهتر مؤثرتر باشد.
سم بومن، مدیر بخش پژوهشی در شرکت Anthropic که بر هم‌ترازی هوش مصنوعی با ترجیحات انسانی تمرکز دارد می‌گوید: «اگر صنعت هوش مصنوعی در این مسیر پیش برود یعنی در پی قدرت بیشتر با کنار گذاشتن شفافیت باشد فرصتی را که می‌توانست یک پیروزی آسان برای ایمنی هوش مصنوعی باشد از دست خواهیم داد». او ادامه می‌دهد: «در آن صورت، ما توانایی‌ای را که شاید تنها ابزارمان برای نظارت بر آن‌ها بود، واگذار خواهیم کرد.»

تفکر بدون واژه‌ها
این‌که یک هوش مصنوعی زبان بیگانه‌ی مخصوص به خود را بسازد، آن‌قدرها هم غیرواقعی نیست که در نگاه نخست به نظر می‌رسد.
در دسامبر ۲۰۲۴، پژوهشگران شرکت Meta تصمیم گرفتند فرضیه‌ای را بیازمایند: این‌که زبان انسانی، قالب بهینه‌ای برای انجام استدلال نیست و شاید مدل‌های زبانی بزرگ (LLMها، همان سامانه‌های هوش مصنوعی‌ای که پایه‌ی ChatGPT شرکت OpenAI و DeepSeek R1 هستند) بتوانند در صورتی که از قید و بند زبان رها شوند، با کارایی و دقت بیشتری استدلال کنند.
پژوهشگران Meta مدلی طراحی کردند که به‌جای آن‌که استدلال خود را با واژه‌ها انجام دهد، از دنباله‌ای از اعداد بهره می‌برد اعدادی که الگوهای تازه‌ی درون شبکه‌ی عصبی مدل را بازنمایی می‌کردند؛ درواقع، این اعداد بیانگر «موتور استدلال درونی» آن بودند.
آن‌ها دریافتند این مدل شروع به تولید چیزی کرد که پژوهشگران آن را «افکار پیوسته» نامیدند. اعدادی که هم‌زمان چند مسیر استدلالیِ بالقوه را کُدگذاری می‌کردند. این اعداد کاملاً مبهم و غیرقابل‌درک برای چشم انسان بودند، اما این روش به شکل چشمگیری موجب ظهور الگوهای استدلال پیشرفته‌ی نوظهور در مدل شد. این الگوها باعث شدند مدل در برخی آزمون‌های استدلال منطقی، امتیاز بالاتری نسبت به مدل‌هایی کسب کند که با زبان انسانی استدلال می‌کردند.
اگرچه پروژه‌ی پژوهشی Meta با کار DeepSeek تفاوت‌های زیادی داشت، یافته‌های دو پروژه در یک نکته‌ی کلیدی هم‌راستا بودند.
هر دو نشان دادند که به‌گفته‌ی جرمی هریس، مدیرعامل شرکت Gladstone AI که مشاور دولت آمریکا در زمینه‌ی چالش‌های ایمنی هوش مصنوعی است، قابلیت خوانایی برای انسان‌ها، نوعی هزینه یا مالیات بر عملکرد سیستم‌های هوش مصنوعی تحمیل می‌کند. او می‌گوید: «در نهایت، هیچ دلیلی وجود ندارد که فرایند تفکر یک هوش مصنوعی الزاماً باید برای انسان قابل‌خواندن باشد.»
و همین امکان، برخی از کارشناسان ایمنی را نگران کرده است.
سم بومن (Sam Bowman)، رئیس تیم ایمنی در شرکت Anthropic، می‌گوید:
«به نظر می‌رسد نشانه‌ها آشکارا بیانگر آن باشند که مسیر تازه‌ای برای تحقیقات هوش مصنوعی وجود دارد مسیری که در آن هدف، فارغ از محدودیت‌های زبانی دستیابی به بهترین نوع استدلال ممکن است،. انتظار دارم پژوهشگران این رویکرد را در مقیاس وسیع‌تری دنبال کنند و خطر آنجاست که در نهایت با مدل‌هایی روبه‌رو شویم که دیگر نمی‌توانیم با اطمینان بگوییم قصدشان چیست، ارزش‌هایشان کدام است یا در مواجهه با تصمیم‌های دشوار به‌عنوان یک عامل خودمختار چگونه رفتار خواهند کرد.»
از سوی دیگر، پژوهشگران Meta استدلال کردند که نتایج آن‌ها الزاماً به معنای حذف انسان از معادله نیست. آنان در مقاله‌ی خود نوشتند:
«بهترین حالت آن است که مدل‌های زبانی بزرگ بتوانند آزادانه و بدون محدودیت‌های زبانی استدلال کنند و تنها زمانی یافته‌های خود را به زبان انسانی ترجمه کنند که ضرورت داشته باشد.»
(شرکت Meta در پاسخ به درخواست اظهار نظر درباره‌ی نگرانی از پیامدهای احتمالی خطرناک این پژوهش، پاسخی ارائه نکرد.)
مرزهای زبان
البته، حتی استدلال‌های هوش مصنوعی که برای انسان قابل‌خواندن هستند نیز بی‌نقص نیستند.
وقتی سامانه‌های هوش مصنوعی فرایند تفکر خود را به زبان ساده‌ی انگلیسی توضیح می‌دهند، ممکن است چنین به نظر برسد که صادقانه مراحل استدلالشان را نشان می‌دهند؛ اما برخی کارشناسان تردید دارند که این توضیحات واقعاً بیانگر نحوه‌ی واقعی تصمیم‌گیری هوش مصنوعی باشد. این وضعیت را می‌توان به پرسیدن از یک سیاست‌مدار درباره‌ی انگیزه‌های پشت یک تصمیم تشبیه کرد. او ممکن است توضیحی خوش‌ظاهر ارائه دهد که ارتباط چندانی با فرایند واقعی تصمیم‌گیری ندارد.
اگرچه بیان استدلال‌های هوش مصنوعی به زبان انسانی روش کاملی نیست، بسیاری از پژوهشگران آن را بهتر از جایگزین احتمالی می‌دانند: این‌که به هوش مصنوعی اجازه دهیم زبان درونی و اسرارآمیز خود را بسازد که برای ما غیرقابل‌فهم است.
دانشمندان در حال توسعه‌ی روش‌های دیگری برای نگاه کردن به درون سامانه‌های هوش مصنوعی هستند؛ مشابه همان‌گونه که پزشکان با استفاده از اسکن مغزی، تفکر انسان را مطالعه می‌کنند. با این حال، این روش‌ها هنوز نوپا هستند و تاکنون نتوانسته‌اند راه‌های قابل‌اعتمادی برای ایمن‌تر کردن سامانه‌های هوش مصنوعی ارائه دهند.
به همین دلیل، بسیاری از پژوهشگران نسبت به تلاش‌هایی که هوش مصنوعی را به استدلال در قالبی غیر از زبان انسانی تشویق می‌کند، با دیده‌ی تردید می‌نگرند.
سم بومن (Sam Bowman) می‌گوید:
«اگر این مسیر را دنبال نکنیم، فکر می‌کنم در موقعیت بسیار بهتری از نظر ایمنی قرار خواهیم داشت. اما اگر آن را ادامه دهیم، در واقع از خودمان مهم‌ترین اهرم را برای کنترل برخی از مسائل بسیار نگران‌کننده و حل‌نشده‌ی هم‌ترازی (alignment) سلب کرده‌ایم.»

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *