یک پژوهش نگرانکننده نشان میدهد که استفاده از ابزارهای هوش مصنوعی مانند ChatGPT برای نوشتن مقالات علمی به سرعت درحال افزایش است. براساس تحلیلها، در سال گذشته میلادی از هر ۷ چکیده مقاله در حوزه زیستپزشکی، یک مورد احتمالاً با کمک هوش مصنوعی نوشته شده است.
براساس گزارش نیچر، محققان دانشگاه توبینگن آلمان در تحقیق جدیدی به بررسی میزان نفوذ مدلهای زبانی بزرگ (LLM) در ادبیات علمی پرداختند. این پژوهش نشان میدهد که در سال ۲۰۲۴ بیش از ۲۰۰ هزار (۱۴ درصد) از ۱.۵ میلیون چکیده مقاله نمایهشده در پایگاه داده PubMed حاوی نشانههای قوی از ویرایش یا نگارش توسط هوش مصنوعی بودهاند.
استفاده از هوش مصنوعی در نوشتن مقالات علمی
از آنجایی که اکثر محققان استفاده خود از هوش مصنوعی را فاش نمیکنند، تشخیص متون تولیدشده توسط چتباتها دشوار است. پژوهشگران در تحقیق جدید بهجای آنکه یک مدل برای تشخیص نشانههای هوش مصنوعی آموزش بدهند، رویکردی متفاوت در پیش گرفتند. آنها به دنبال «کلمات اضافی» گشتند؛ کلماتی که استفاده از آنها پس از عرضه عمومی ChatGPT در نوامبر ۲۰۲۲، بهطور ناگهانی و غیرعادی افزایش یافته است.
این کلمات عمدتاً «واژگان سبکی» و نه تخصصی هستند که LLMها تمایل زیادی به استفاده از آنها دارند، از جمله:
- Delves (کندوکاو کردن)
- Showcasing (به نمایش گذاشتن)
- Unparalleled (بینظیر)
- Invaluable (گرانبها)
- Crucial (حیاتی)

این تغییر زبانی، حتی از تغییرات واژگانی که در دوران همهگیری کرونا (کلماتی مانند «ماسک») رخ داد، شدیدتر و بارزتر بوده است. این مطالعه نشان میدهد که روند استفاده از هوش مصنوعی درحال «افزایش بیوقفه» است و در برخی حوزهها و مناطق، بسیار شایعتر است. به عنوان مثال، در رشتههایی مانند محاسبات و بیوانفورماتیک و در میان مقالات منتشرشده از کشورهایی مانند چین و کره جنوبی، بیش از یک پنجم (۲۰ درصد) چکیدهها احتمالاً با کمک هوش مصنوعی نوشته شدهاند.
همچنین محققان دریافتهاند که با افزایش آگاهی عمومی، نویسندگان در حال یادگیری روشهایی برای پنهانکردن ردپای هوش مصنوعی هستند، مثلاً با حذف کلمات شاخص یا تغییر دستورات خود به چتبات. اما مهمترین نگرانی این است که مطالعاتی مانند پژوهش حاضر نمیتوانند نحوه استفاده از هوش مصنوعی را مشخص کنند. آیا محققان از آن برای کارهای قابل قبولی مانند ویرایش متن یا کمک به ترجمه استفاده کردهاند، یا برای اقدامات مشکوکتری مانند تولید بخشهای بزرگی از محتوای علمی بدون نظارت و درک کافی؟
درکل این مطالعه، بیش از پیش، بر ضرورت ایجاد دستورالعملهای شفاف و سیاستهای مشخص برای استفاده اخلاقی از هوش مصنوعی در جامعه علمی تأکید میکند.
یافتههای این پژوهش در ژورنال Science Advances منتشر شده است.
نظرات کاربران