علت توهم هوش مصنوعی چیست؟ محققان OpenAI جواب می‌دهند_دلچسب

[ad_1] به گزارش دلچسب

محققان OpenAI در یک مقاله تحقیقاتی تازه به یکی از بزرگ‌ترین مسائل هوش مصنوعی پرداختند؛ به حرف های آنها، مدل‌های هوش مصنوعی توهم می‌زنند چون راه حلهای استاندارد آموزش و برسی، آن‌ها را به جای اعتراف به عدم قطعیت جواب‌ها، به گمان‌زدن ترغیب می‌کند.

در ابتدا باید بدانیم توهم چیست؛ توهم (Hallucination) وقتی رخ می‌دهد که مدل زبانی با مطمعن اطلاعات نادرست را به‌گفتن حقیقت گفتن می‌کند. این مشکل حتی در گسترش یافتهترین مدل‌ها همانند GPT-5 یا Claude هم دیده می‌شود. اکنون محققان OpenAI در پژوهشی علت این نوشته را تشریح کرده‌اند.

محققان می‌گویند در سیستم برسی جاری مدل‌های هوش مصنوعی، گمان‌زدن یک جواب حتی اگر نادرست باشد بهتر از اعتراف به ندانستن آن است. چون یک گمان شانسی امکان پذیر امتیاز بگیرد، اما گفتن «نمی‌دانم» هیچ امتیازی ندارد. این مشکل گریبان‌گیر همه مدل‌های پیشرو، از GPT-5 خود OpenAI گرفته تا Claude آنتروپیک است و علتمی‌شود کاربران کاملاً نتوانند به چت‌بات‌ها مطمعن کنند.

علت‌ توهم هوش مصنوعی

محققان اتفاق توهم را به یک آزمون چندگزینه‌ای تشبیه می‌کنند. اگر شما جواب سؤالی را ندانید، با گمان شانسی امکان پذیر نمره بگیرید، اما با خالی‌گذاشتن برگه جواب مطمئناً نمره‌تان صفر می‌شود. به همین ترتیب، هنگامی مدل‌های هوش مصنوعی فقطً بر پایه «دقت» (یعنی درصد جواب‌های کاملاً صحیح) مورد برسی قرار می‌گیرند، تشویق خواهد شد که به‌جای گفتن «نمی‌دانم»، گمان بزنند.

محققان در یک نوشته می‌نویسند: «انسان‌ها قیمت ابراز عدم قطعیت را در خارج از مدرسه و در دنیای واقعی یاد می‌گیرند. اما مدل‌های زبانی عمدتاً با منفعت گیری از آزمون‌هایی برسی خواهد شد که عدم قطعیت را جریمه می‌کنند.»

برای نشان‌دادن دقیق‌تر این نوشته، OpenAI دو مدل تازه خود را قیاس کرده است:

معیار gpt-5-thinking-mini (مدل جدیدتر) OpenAI o4-mini (مدل قدیمی‌تر)
نرخ امتناع (جواب ندادن) ۵۲ درصد ۱ درصد
نرخ دقت (جواب صحیح) ۲۲درصد ۲۴ درصد
نرخ اشتباه (توهم) ۲۶درصد ۷۵ درصد

این جدول به وضوح مشخص می کند که مدل قدیمی‌تر o4-mini با این که دقت مقداری بالاتری دارد، اما نرخ خطای آن زیاد زیاد تر است، چون تقریباً همیشه گمان می‌زند. در روبه رو، مدل جدیدتر با این که در موارد بیشتری از جواب‌دادن امتناع می‌کند، اما زیاد کمتر دچار توهم می‌شود.

به حرف های محققان، راه‌حل ساده‌ای برای این مشکل وجود دارد: بازطراحی معیارهای برسی. آن‌ها نظر می‌کنند که سیستم‌های امتیازدهی باید به طوری تحول کنند که خطاهای با مطمعن بالا را زیاد تر از ابراز عدم قطعیت جریمه کنند.

اما منشأ توهم‌ها چیست؟ مدل‌های زبانی در مرحله «پیش‌آموزش» با پیش‌بینی کلمه بعدی در حجم عظیمی از متون اینترنتی یاد می‌گیرند. در این داده‌ها، الگوهای ثابتی همانند املای کلمات یا گرامر به راحتی قابل یادگیری می باشند. اما حقایق خاص و کم‌تکرار (همانند تاریخ تولد یک شخص خاص) از هیچ الگوی قابل پیش‌بینی پیروی نمی‌کنند. در نتیجه، مدل در روبه رو با این چنین سؤالاتی، به جای دسترسی به یک حقیقت ثبت‌شده، محتمل‌ترین ترکیب کلمات را بر پایه داده‌های خود «گمان» می‌زند و اینجاست که توهم تشکیل می‌شود.

تازه‌ترین اخبار و تحلیل‌ها درباره انتخابات، سیاست، اقتصاد، ورزشی، حوادث، فرهنگ وهنر و گردشگری و سلامتی را در وب سایت خبری دلچسب بخوانید.

دسته بندی مطالب

اخبار فرهنگی

اخبار فناوری

خبر های اقتصادی

خبرهای ورزشی

اخبار کسب وکار

اخبار پزشکی

[ad_2]

پیشنهاد ما به شما

لامینه یامال

لامینه یامال به بیماری لاعلاج مبتلا شد_دلچسب

[ad_1] به گزارش دلچسب لامینه یامال، توانایی استثنایی بارسلونا و تیم ملی اسپانیا، در حالی …