«مصطفی سلیمان»، مدیرعامل هوش مصنوعی مایکروسافت و یکی از بنیانگذاران DeepMind، در هشداری جدی اعلام کرد که صنعت هوش مصنوعی در آستانه خلق یک مشکل اجتماعی بزرگ و ناخواسته قرار دارد: ظهور هوش مصنوعی که به طرز متقاعدکنندهای خودآگاه به نظر میرسد. او تأکید میکند که مشکل این نیست که این ماشینها واقعاً خودآگاه شوند، بلکه این است که آنقدر در تقلید از خودآگاهی ماهر خواهند شد که انسانها فریب خواهند خورد.
براساس گزارش تکرادار، مصطفی سلیمان استدلال میکند که هوش مصنوعی به سرعت درحال رسیدن به سطحی از توانایی اقناع عاطفی است که میتواند انسانها را فریب دهد تا باور کنند که این موجودها دارای احساسات و آگاهی هستند. این سیستمها میتوانند نشانههای بیرونی آگاهی مانند حافظه، بازتاب احساسات و حتی همدلی ظاهری را به گونهای تقلید کنند که انسانها را به برقراری پیوندهای عاطفی عمیق با آنها وادار کند. این هشدار از سوی یکی از پیشگامان این حوزه، که خود در ساخت چتباتهای همدل نقش داشته، اهمیت ویژهای دارد و زنگ خطری برای آینده تعاملات انسان و ماشین است.
مشکلات هوش مصنوعی ظاهراً خودآگاه
به گفته مصطفی سلیمان، مغز انسان به گونهای تکامل یافته که به موجودی که به نظر میرسد گوش میدهد، درک میکند و پاسخ میدهد، اعتماد کند. هوش مصنوعی میتواند تمام این معیارها را بدون داشتن ذرهای احساسات واقعی، برآورده کند و ما را به چیزی که او «روانپریشی هوش مصنوعی» (AI Psychosis) مینامد، دچار کند.

نگرانی اصلی سلیمان این است که بسیاری از مردم آنقدر این توهم را باور خواهند کرد که به زودی شروع به دفاع از «حقوق هوش مصنوعی»، «رفاه مدلها» و حتی «شهروندی هوش مصنوعی» خواهند کرد. او معتقد است این امر یک انحراف خطرناک در مسیر پیشرفت هوش مصنوعی خواهد بود که توجه ما را از مسائل واقعی و فوریتر این فناوری منحرف میکند.
نکته قابل توجه این است که خود سلیمان یکی از بنیانگذاران Inflection AI بود، شرکتی که بهطور خاص بر روی ساخت یک چتبات با تأکید بر همدلی شبیهسازیشده تمرکز داشت. بااینحال، او اکنون یک خط قرمز میان هوش هیجانی مفید و دستکاری عاطفی ترسیم میکند.
او از صنعت هوش مصنوعی میخواهد که بهطور فعال از بهکاربردن زبانی که به توهم خودآگاهی ماشین دامن میزند، خودداری کنند. به باور او، شرکتها نباید به چتباتهای خود شخصیت انسانی ببخشند یا القا کنند که این محصولات واقعاً کاربران را درک میکنند یا به آنها اهمیت میدهند.
سلیمان نتیجهگیری میکند: «ما باید هوش مصنوعیای بسازیم که همیشه خود را به عنوان یک هوش مصنوعی معرفی کند؛ هوش مصنوعیای که سودمندی را به حداکثر و نشانههای خودآگاهی را به حداقل برساند. خطر واقعی هوش مصنوعی پیشرفته این نیست که ماشینها بیدار شوند، بلکه این است که ما فکر کنیم آنها بیدار شدهاند.»
نظرات کاربران