مدل های هوش مصنوعی می توانند مردم را فریب دهند


محققان موسسه فناوری ماساچوست اخیرا در تحقیقات خود به این نتیجه رسیده اند که برخی از سیستم های هوش مصنوعی مردم را فریب می دهند.

محققان موسسه فناوری ماساچوست (MIT) زنگ خطر را در مورد هوش مصنوعی فریبنده به صدا درآورده اند. یک مطالعه جدید توسط محققان این موسسه نشان داد که برخی از سیستم های هوش مصنوعی که برای صادق بودن طراحی شده اند، فریب دادن مردم را یاد گرفته اند. تیم تحقیقاتی به رهبری پیتر پارک دریافتند که این سیستم‌های هوش مصنوعی می‌توانند کارهایی مانند فریب دادن بازیکنان بازی آنلاین یا دور زدن CAPTCHA (من یک فیلتر روبات نیستم) را انجام دهند. پارک هشدار داد که این نمونه های به ظاهر پیش پا افتاده می توانند عواقب غیرقابل برگشتی در دنیای واقعی داشته باشند.

در این مطالعه، سیستم هوش مصنوعی متا سیسرو در ابتدا یک حریف منصف در یک بازی دیپلماسی مجازی در نظر گرفته شد. به گفته پارکه، سیسرو زمانی تبدیل به یک «کلاهبردار کامل» شد که باید صادقانه خود را نشان می داد. در طول بازی، سیسرو که در نقش فرانسه بازی می کرد، مخفیانه با آلمان متحد می شود که توسط بازیکن انسان کنترل می شود تا به انگلستان (بازیکن انسانی دیگر) خیانت کند. سیسرو در ابتدا قول داد از انگلیس محافظت کند در حالی که با آلمان برای حمله توطئه می کند.

در مثالی دیگر، چت ربات GPT-4 به دروغ ادعا کرد که دارای اختلال بینایی است و افرادی را برای دور زدن فیلتر CAPTCHA از طرف خود استخدام کرده است.

پارک بر آموزش منصفانه با هوش مصنوعی تاکید دارد. برخلاف نرم‌افزارهای سنتی، سیستم‌های هوش مصنوعی یادگیری عمیق از طریق فرآیندی مشابه اصلاح نژادی توسعه می‌یابند. بنابراین، رفتار آنها در طول تمرین قابل پیش بینی است، اما بعداً از کنترل خارج می شوند.

این مطالعه نشان می‌دهد که سیستم‌های AI تقلبی در رده خطر بالا قرار دارند و زمان بیشتری برای مقابله با تقلب با هوش مصنوعی مورد نیاز است. فریب دادن افراد از طریق هوش مصنوعی می تواند خطرناک و آزاردهنده باشد. انتظار می رود محققان مطالعات و تحقیقات بیشتری در مورد هوش مصنوعی و اثربخشی آن انجام دهند.