کد QR مطلبدریافت صفحه با کد QR

معضل بزرگ هوش مصنوعی

6 شهريور 1403 ساعت 12:39

گزارشگر : سهیلا صدیقی

فقط چه کسی (یا چه چیزی) چه چیزی را نوشت؟ به نظر می رسد این یک سؤال غالب و طنین‌انداز است که به نظر می‌رسد بر نویسنده بیش از محتوا متمرکز است.


به گزارش پایگاه خبری پروژه ایران، تحقیقات اخیر چالش مهمی را در این بحث نویسندگی عجیب هوش مصنوعی (AI) کشف کرده است: نه انسان‌ها و نه سیستم‌های هوش مصنوعی به طور مداوم قادر به تشخیص محتوای تولید شده توسط هوش مصنوعی در مکالمات آنلاین نیستند. این یافته ممکن است پیامدهای مهمی برای ارتباطات دیجیتال، اعتماد آنلاین و آینده تعامل انسان و هوش مصنوعی داشته باشد. یا از سوی دیگر، ممکن است فقط یک تعقیب غاز وحشی باشد که بین خلاقیت و بهره‌وری انسان و هوش مصنوعی فاصله ایجاد می‌کند.
 
برداشتی جدید از آزمون تورینگ
 
محققان آزمایش جدیدی را انجام دادند و آزمایش تورینگ کلاسیک را گسترش دادند. آنها رونوشت‌هایی از مکالمات بین انسان‌ها و هوش مصنوعی را به شرکت‌کنندگان انسانی و مدل‌های هوش مصنوعی ارائه کردند و از آنها خواستند تعیین کنند کدام کدام است. نتایج قابل توجه و غیرمنتظره بود.
 
قضات انسانی آواره (آنهایی که رونوشت‌ها را می‌خوانند) در شناسایی شرکت کنندگان هوش مصنوعی بهتر از شانس عمل نکردند. حتی شگفت‌آورتر اینکه مدل‌های هوش مصنوعی مانند GPT-3.5 و GPT-4 زمانی که وظیفه شناسایی یکسانی داشتند، عملکرد ضعیفی مشابهی از خود نشان دادند. شاید جالب‌تر از همه، پیشرفته‌ترین مکالمه‌گر هوش مصنوعی بیشتر به عنوان انسان مورد قضاوت قرار می‌گرفت تا شرکت‌کنندگان واقعی.
 
محو کردن خطوط در چشم انداز دیجیتال
 
این یافته‌ها نشان می‌دهد که با پیچیده‌تر شدن مدل‌های زبان هوش مصنوعی، مرز بین محتوای تولید شده توسط انسان و هوش مصنوعی به طور فزاینده‌ای مبهم می‌شود. این پیامدهای مهمی برای تعاملات دیجیتالی ما دارد و سؤالات مهمی در مورد ماهیت ارتباطات آنلاین ایجاد می کند.

 
همانطور که سیستم‌های هوش مصنوعی در فضاهای دیجیتال رواج بیشتری می‌یابند، تشخیص اینکه آیا در حال تعامل با انسان‌ها یا ماشین‌ها هستیم، ممکن است سخت‌تر شود. این چالش فراتر از کنجکاوی صرف است - می تواند به قلب اعتماد دیجیتال ضربه بزند. چگونه می‌توانیم منبع اطلاعات یا هویت کسانی را که با آنها در ارتباط هستیم در محیطی که هوش مصنوعی می‌تواند به طور متقاعدکننده‌ای گفتمان انسانی را تقلید کند، تأیید کنیم؟
 
روش‌های تشخیص قابل اعتماد
 
این مطالعه همچنین روش‌های مختلف تشخیص هوش مصنوعی، از جمله رویکردهای آماری و استفاده از هوش مصنوعی برای تشخیص هوش مصنوعی دیگر را مورد بررسی قرار داد. در حالی که برخی از روش ها امیدوار کننده بودند، همه آنها محدودیت های قابل توجهی داشتند.
 
 رویکردهای آماری: روش‌های آماری می‌توانند برخی از الگوها را در متن تولید شده توسط هوش مصنوعی شناسایی کنند، اما با مدل‌های پیشرفته‌تر مبارزه کردند. همانطور که مدل‌های زبان هوش مصنوعی بهبود می‌یابد، این امضاهای آماری به طور فزاینده‌ای ظریف‌تر می‌شوند و تشخیص قابل اعتماد آن دشوار است.

 تشخیص هوش مصنوعی: ردیاب‌های هوش مصنوعی بهتر از شانس عمل می‌کنند، اما همچنان خطاهای زیادی مرتکب می‌شوند، مخصوصاً با محتوای پیچیده‌تر تولید شده توسط هوش مصنوعی. این نشان می دهد که حتی هوش مصنوعی که به طور خاص برای این کار آموزش دیده است، در تلاش است تا به طور مداوم نوع خود را در تنظیمات مکالمه شناسایی کند.

 عنصر انسانی: جالب اینجاست که بازجوهای انسانی تعاملی بهتر از کسانی که رونوشت‌ها را می‌خوانند، عمل می‌کنند، اما هنوز برای شناسایی مداوم شرکت‌کنندگان هوش مصنوعی تلاش می‌کنند. این امر ارزش تعامل مستقیم در تشخیص هوش مصنوعی را برجسته می کند، اما همچنین بر پیچیدگی مدل های مدرن زبان هوش مصنوعی تأکید می کند.
 
همانطور که ما با چالش‌های تشخیص هوش مصنوعی دست و پنجه نرم می کنیم، یک سوال مطرح می شود: آیا واقعاً مهم است؟ در دنیایی که به طور فزاینده ای با هوش مصنوعی یکپارچه شده است، تمایز بین محتوای تولید شده توسط انسان و هوش مصنوعی ممکن است در بسیاری از زمینه ها کمتر مرتبط شود. در نظر بگیرید که چگونه املا و تصحیح خودکار را به طور یکپارچه در فرآیند نوشتن خود ادغام کرده ایم - به ندرت مکث می کنیم تا به این فکر کنیم که آیا یک کلمه به درستی املای آن نتیجه دانش بشری است یا کمک های فنی. به طور مشابه، وقتی هوش مصنوعی عمیق‌تر در تعاملات دیجیتالی ما بافته می‌شود، ممکن است متوجه شویم که کمتر روی منشا محتوا و بیشتر بر ارزش و ارتباط آن تمرکز می‌کنیم.
 
 
 


کد مطلب: 427129

آدرس مطلب :
https://www.theiranproject.com/fa/article/427129/معضل-بزرگ-هوش-مصنوعی

پروژه ایرانی
  https://www.theiranproject.com