0

زیان «اثر گله‌ای» در سیلیکون‌ولی؛ هوش مصنوعی فعلی به بن‌بست می‌رسد

زیان «اثر گله‌ای» در سیلیکون‌ولی؛ هوش مصنوعی فعلی به بن‌بست می‌رسد
بازدید 16

«یان لکان» یکی از شناخته‌شده‌ترین افراد صنعت هوش مصنوعی است. او در مصاحبه جدیدی که در ادامه آن را مرور می‌کنیم، استدلال کرده که صنعت فناوری در نهایت و پس از سال‌ها تلاش و صرف صدها میلیارد دلار هزینه، در توسعه هوش مصنوعی به بن‌بست خواهد رسید.

لکان در طول ۴۰ سال فعالیت حرفه‌ای خود به عنوان دانشمند علوم کامپیوتر، به عنوان یکی از پیشروترین متخصصان جهان در زمینه هوش مصنوعی شناخته می‌شود. او یکی از سه محقق پیشگامی بود که جایزه تورینگ را دریافت کردند؛ جایزه‌ای که اغلب «نوبل دنیای پردازش» نامیده می‌شود و به دلیل کار روی فناوری‌هایی اهدا شده که اکنون پایه و اساس هوش مصنوعی مدرن است.

او همچنین بیش از یک دهه به عنوان دانشمند ارشد هوش مصنوعی در متا، شرکت مادر فیسبوک و اینستاگرام، فعالیت کرد. اما دکتر لکان پس از ترک متا در ماه نوامبر، شروع به انتقاد از رویکرد تک‌بعدی سیلیکون‌ولی برای ساخت ماشین‌های هوشمند کرده است.

به‌گزارش نیویورک‌تایمز، او گفته که دلیل این امر به چیزی مربوط می‌شود که سال‌ها بر سر آن بحث وجود داشته است: مدل‌های زبانی بزرگ یا LLMها (همان فناوری هوش مصنوعی که در مرکز محصولات محبوبی مانند ChatGPT وجود دارد)، تنها تا حد مشخصی می‌توانند قدرتمند شوند.

او می‌گوید شرکت‌ها تمام توان خود را صرف پروژه‌هایی می‌کنند که آنها را به هدف خود یعنی ساخت کامپیوترهایی به هوشمندی انسان یا حتی هوشمندتر از بشر نمی‌رساند. وی همچنین اشاره کرده که شرکت‌های خلاق‌تر چینی می‌توانند زودتر به این نقطه دست پیدا کنند.

توضیحات لکان درباره اثر گله‌ای در سیلیکون‌ولی

لکان در مصاحبه‌ خود گفته است:

«یک اثر گله‌ای (Herd effect) وجود دارد که در آن همه در سیلیکون‌ولی باید روی یک چیز واحد کار کنند. این امر فضای زیادی برای رویکردهای دیگر باقی نمی‌گذارد که ممکن است در بلندمدت بسیار نویدبخش‌تر باشند.»

یان‌ لی‌کان، دانشمند هوش مصنوعی

ریشه بخش زیادی از تلاش‌های امروزی صنعت فناوری به ایده‌ای مربوط می‌شود که او از دهه ۱۹۷۰ آن را پرورش داده است. لکان به‌عنوان یک دانشجوی جوان مهندسی در پاریس، مفهومی به نام «شبکه‌های عصبی» را پذیرفت که اکثر محققان فکر می‌کردند یک ایده ناامیدکننده است.

شبکه‌های عصبی سیستم‌های ریاضی هستند که مهارت‌ها را با تجزیه‌و‌تحلیل داده‌ها یاد می‌گیرند. در آن زمان، این سیستم هیچ کاربرد عملی نداشت، اما یک دهه بعد، زمانی که لکان محقق آزمایشگاه‌های بل بود، به همراه همکارانش نشان داد که این سیستم‌ها می‌توانند کارهایی مانند خواندن دست‌خط‌های نوشته‌شده روی پاکت‌نامه‌ها یا چک‌های شخصی را یاد بگیرند.

تا اوایل دهه ۲۰۱۰، محققان شروع به نشان دادن این موضوع کردند که از شبکه‌های عصبی می‌توان در طیف گسترده‌ای از فناوری‌ها، از جمله سیستم‌های تشخیص چهره، دستیارهای دیجیتال و خودروهای خودران بهره گرفت.

مدت کوتاهی پس از عرضه ChatGPT، دو محققی که جایزه تورینگ ۲۰۱۸ را همراه با دکتر لکان دریافت کرده بودند، هشدار دادند که هوش مصنوعی درحال تبدیل‌شدن به پدیده‌ای بیش‌ازحد قدرتمند است. آن دانشمندان حتی هشدار دادند که این فناوری می‌تواند آینده بشریت را تهدید کند. اما دکتر لکان استدلال کرد که این حرف‌ها پوچ است. او گفت:

«سروصدای زیادی پیرامون این ایده وجود داشت که سیستم‌های هوش مصنوعی ذاتاً خطرناک هستند و قرار دادن آنها در دست همه اشتباه است. اما من هرگز به این موضوع اعتقاد نداشتم.»

لکان همچنین به متا و رقبای آن فشار آورد تا تحقیقات خود را آزادانه از طریق مقالات آکادمیک و فناوری‌های به‌اصطلاح «متن‌باز» (Open Source) به اشتراک بگذارند.

شرکت متا

پس از آن افراد بیشتری اشاره کردند که هوش مصنوعی می‌تواند نوعی تهدید برای انسان باشد و به‌همین‌دلیل تعدادی از شرکت‌ها تلاش‌های متن‌باز خود را کاهش دادند. اما متا به راه خود ادامه داد. دکتر لکان بارها استدلال کرد که رویکرد متن‌باز امن‌ترین مسیر برای توسعه است. با این وجود هیچ شرکتی کنترل فناوری را در دست نخواهد داشت و هر کسی می‌تواند از این سیستم‌ها برای شناسایی و مبارزه با خطرات احتمالی استفاده کند.

ریسک پیشتازی چین در توسعه هوش مصنوعی

دکتر لکان هشدار می‌دهد که شرکت‌های آمریکایی ممکن است پیشتازی خود را به رقبای چینی که هنوز از رویکرد متن‌باز استفاده می‌کنند، واگذار کنند. او می‌گوید:

«این یک فاجعه است. اگر همه پذیرا و باز باشند، کل این حوزه با سرعت بیشتری پیشرفت می‌کند.»

کار هوش مصنوعی متا در سال گذشته با مانع روبه‌رو شد. پس از اینکه محققان خارجی از آخرین فناوری این شرکت، یعنی Llama 4، انتقاد کردند و متا را به ارائه اطلاعات نادرست درباره قدرت سیستم متهم ساختند، «مارک زاکربرگ»، مدیرعامل متا، میلیاردها دلار صرف یک آزمایشگاه تحقیقاتی جدید کرد که به دنبال توسعه «ابرهوش» است؛ یک سیستم فرضی هوش مصنوعی که از قدرت مغز انسان فراتر می‌رود.

شش ماه پس از ایجاد آزمایشگاه جدید، لکان متا را ترک کرد تا استارتاپ خود را با نام AMI Labs تأسیس کند.

با‌این‌حال، دکتر لکان استدلال کرده که تحقیقات او پاسخ نهایی برای توسعه هوش مصنوعی نیستند. او می‌گوید که مشکل سیستم‌های فعلی این است که از قبل برنامه‌ریزی نمی‌کنند و صرفاً براساس داده‌های دیجیتال آموزش دیده‌اند و راهی برای درک دشواری‌های دنیای واقعی ندارند.

او می‌گوید:

«LLMها مسیری به سوی ابرهوش یا حتی هوش در سطح انسان نیستند. من این را از ابتدا گفته بودم. کل صنعت دچار اعتیاد به LLM شده است.»

دکتر لکان در طول چندین سال اخیر حضور خود در متا، روی فناوری‌ای کار کرد که سعی داشت نتیجه اقدامات خود را پیش‌بینی کند. او می‌گوید این کار به هوش مصنوعی اجازه می‌دهد فراتر از وضعیت موجود پیشرفت کند. استارتاپ جدید او همین کار را ادامه خواهد داد. لکان توضیح می‌دهد:

«این سیستم می‌تواند برای کاری که قرار است انجام دهد، برنامه‌ریزی کند. سیستم‌های فعلی (یعنی همان LLMها) مطلقاً نمی‌توانند چنین کاری انجام دهند.»

بخشی از استدلال دکتر لکان این است که سیستم‌های هوش مصنوعی امروزی مرتکب اشتباهات بسیار زیادی می‌شوند. او استدلال کرده که با مواجهه آنها با وظایف پیچیده‌تر، اشتباهات مانند تصادف زنجیره‌ای خودروها در بزرگراه روی هم انباشته می‌شوند.

اما در طول چند سال گذشته، این سیستم‌ها به‌طور مداوم بهبود یافته‌اند. و در ماه‌های اخیر، آخرین مدل‌ها که برای «استدلال» در مورد سؤالات طراحی شده‌اند، به پیشرفت در زمینه‌هایی مانند ریاضیات، علوم و برنامه‌نویسی کامپیوتر ادامه داده‌اند.

در بخش دیگری، لکان گفته که چند دهه گذشته پر از پروژه‌های هوش مصنوعی بوده که به‌نظر می‌رسید راهی به سمت جلو هستند اما اکنون متوقف شده‌اند و تضمینی نیست که سیلیکون‌ولی برنده این مسابقه جهانی باشد. او می‌گوید:

«ایده‌های خوب از چین می‌آیند. اما سیلیکون‌ولی همچنین دچار عقده برتری است، بنابراین نمی‌تواند تصور کند که ایده‌های خوب می‌توانند از جاهای دیگر بیایند.»

زیان «اثر گله‌ای» در سیلیکون‌ولی؛ هوش مصنوعی فعلی به بن‌بست می‌رسد

«رایان کریشنان»، مدیرعامل Vals AI که عملکرد آخرین فناوری‌های هوش مصنوعی را ردیابی می‌کند، هم گفته است:

«مدل‌ها اشتباه می‌کنند. اما ما نشان داده‌ایم که یک سیستم می‌تواند گزینه‌های مختلف زیادی را قبل از رسیدن به پاسخ نهایی امتحان کند. پیشرفت درحال کند شدن نیست. مشخص شده که مدل‌های زبانی می‌توانند وظایف جدیدی را برعهده بگیرند و در انجام هر کاری که ما می‌خواهیم، بهتر و بهتر شوند.»

«سوبارائو کامبهامپاتی»، استاد دانشگاه ایالتی آریزونا که تقریباً به اندازه دکتر لکان در زمینه هوش مصنوعی فعالیت داشته، هم موافق است که فناوری‌های امروزی مسیری به سوی هوش واقعی فراهم نمی‌کنند. اما او اشاره کرده که این فناوری‌ها بیش از پیش در زمینه‌های بسیار سودآوری مانند کدنویسی کامپیوتر مفید ظاهر شده‌اند.

نظرات کاربران

  • دیدگاه های ارسال شده شما، پس از بررسی توسط تیم اَپ ریویو منتشر خواهد شد.
  • پیام هایی که حاوی توهین، افترا و یا خلاف قوانین جمهوری اسلامی ایران باشد منتشر نخواهد شد.
  • لازم به یادآوری است که آی پی شخص نظر دهنده ثبت می شود و کلیه مسئولیت های حقوقی نظرات بر عهده شخص نظر بوده و قابل پیگیری قضایی می باشد که در صورت هر گونه شکایت مسئولیت بر عهده شخص نظر دهنده خواهد بود.
  • لطفا از تایپ فینگلیش بپرهیزید. در غیر اینصورت دیدگاه شما منتشر نخواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *