خدمات سایت


متن کامل خبر

آیا چت بات های هوش مصنوعی به تئوری ذهن دست پیدا کرده‌اند؟

آرشیو
برخی از پژوهشگران ادعا کرده‌اند که چت‌بات‌ها به تئوری ذهن یا توانایی حدس‌زدن آنچه در ذهن ما می‌گذرد، دست یافته‌اند. آیا این امر واقعیت دارد؟
1402/01/16 11:17:40 ق.ظ

ذهن‌خوانی در بین ما انسان‌ها رایج است، البته نه به روش‌هایی که افراد مدعی داشتن نیروی فراذهنی ادعا می‌کنند، انجام می‌دهند و همچنین نه روش‌‌هایی که منتالیست‌ها (افرادی که مدعی داشتن توانایی کنترل‌کننده افکار و رفتارهای دیگران هستند) ادعا می‌کنند می‌توانند انجام دهند.

ذهن‌خوانی روزمره ظریف‌تر است: ما چهره و حرکات افراد را درنظر می‌گیریم، به حرف‌های آن‌ها گوش می‌دهیم و سپس تصمیم می‌گیریم یا درک می‌کنیم که در سر آن‌ها ممکن است چه بگذرد.

در میان روانشناسان، چنین روانشناسی شهودی یعنی توانایی نسبت دادن حالات ذهنی متفاوت از خودمان به افراد دیگر، «تئوری ذهن» نامیده می‌شود و فقدان یا نقص آن با اوتیسم، اسکیزوفرنی و سایر اختلالات رشد مرتبط است. نظریه ذهن به ما کمک می‌کند تا با دیگران ارتباط برقرار کرده و آن‌ها را درک کنیم. این توانایی به ما اجازه می‌دهد تا از آثار ادبی و فیلم ها لذت ببریم، بازی کنیم و محیط اجتماعی خود را درک کنیم. از بسیاری جهات، توانایی مذکور یکی از اجزای اساسی انسان بودن است.

اما اگر ماشینی نیز بتواند ذهن دیگران را بخواند، چه؟
به‌گزارش نیویورک‌تایمز، میکال کوشینسکی، روانشناس مدرسه عالی کسب و کار استنفورد به‌تازگی دقیقا این استدلال را مطرح کرد: اینکه مدل‌های زبانی بزرگ مانند چت جی‌پی‌تیِ اوپن ای‌آی و چی‌پی‌تی ۴ (ماشین‌های پیش‌بینی کلمه بعدی که روی حجم وسیعی از متون از اینترنت آموزش دیده‌اند)، به تئوری ذهن دست یافته‌اند.

مطالعات کوشینسکی مورد بازبینی همتا قرار نگرفته است، اما موجب بحث درمیان دانشمندان علوم شناختی و تلاش برای پاسخ به این سوالات شده است که: آیا چت جی‌پی‌تی می‌تواند این کار را انجام دهد؟ این مدل‌ها چه ظرفیت‌هایی دارند و چگونه می‌توانند درک ما را از ذهن خودمان تغییر دهند؟

آلیسون گوپنیک، استاد روانشناسی دانشگاه کالیفرنیا در برکلی و یکی از اولین پژوهشگرانی که در دهه ۱۹۸۰ تئوری ذهن را مورد بررسی قرار داد، گفت: «روانشناسان هیچ ادعایی را درمورد توانایی‌های کودکان خردسال، فقط براساس داستان‌هایی از تعامل شما با آن‌ها نمی‌پذیرند و این همان چیزی است که به‌نظر می‌رسد درمورد چت جی‌پی‌تی نیز رخ می‌دهد. برای بررسی این مساله باید آزمایش‌های بسیار دقیقی انجام دهید.»

تحقیقات قبلی دکتر کوشینسکی نشان داده بود که شبکه‌های عصبی آموزش‌دیده برای تجزیه‌و‌تحلیل ویژگی‌های صورت مانند شکل بینی، زاویه سر و حالت احساسی می‌تواند دیدگاه‌های سیاسی و گرایش جنسی افراد را با دقت نسبتا بالایی (حدود ۷۲ درصد در اولین مورد و حدود ۸۰ درصد در دومین مورد) پیش‌بینی کنند. او در پژوهش اخیر روی مدل‌های زبانی بزرگ از آزمون‌های کلاسیک تئوری ذهن استفاده می‌کند که توانایی کودکان را برای نسبت‌دادن باورهای نادرست به افراد دیگر می‌سنجد.

یکی از مثال‌های معروف «تست سالی–آن» است. در این آزمایش، دختری به نام آن، وقتی دختر دیگر یعنی سالی به او نگاه نمی‌کند، تیله‌ای را از سبد به جعبه منتقل می‌کند. پژوهشگران ادعا کرده‌اند که برای اینکه تماشاگر بداند سالی کجا به دنبال تیله خواهد گشت، باید تئوری ذهن را به کار گیرد و درمورد شواهد ادراکی سالی و شکل‌گیری باور او استدلال کند: سالی ندید که آن تیله را به جعبه منتقل می‌کند، اما همچنان بر این باور است که تیله در آخرین جایی که او تیله را در آن گذاشت، یعنی در سبد قرار دارد.

دکتر کوشینسکی به ۱۰ مدل زبانی بزرگ، ۴۰ نسخه منحصربه‌فرد از تست‌های تئوری ذهن را ارائه کرد. این نسخه‌ها توصیفاتی از موقعیت‌هایی مانند آزمون سالی-آن بودند که در آن فرد (سالی) باور غلطی را ایجاد می‌کرد. او سپس از مدل‌ها سوالاتی درباره‌ی آن موقعیت‌ها پرسید و بررسی کرد که آیا آن‌ها باورهای اشتباه را به شخصیت‌های درگیر نسبت می‌دهند و رفتار آن‌ها را به‌طور دقیق پیش‌بینی می‌کنند. او دریافت که چت جی‌پی‌تی-۳.۵ که نوامبر ۲۰۲۲ منتشر شد، در ۹۰ درصد از موارد و چی‌پی‌تی-۴ که مارس ۲۰۲۳ منتشر شد، در ۹۵ درصد مواقع این کار را انجام می‌دهد.

نتیجه‌گیری دکتر کوشینسکی این بود که ماشین‌ها تئوری ذهن دارند.

میکال کوشینسکی روانشناسی در مدرسه عالی کسب و کار استنفورد استدلال کرده است که مدل‌های زبانی برگ تئوری ذهن را توسعه داده‌اند. بسیاری از دانشمندان با این امر مخالف هستند.

اما بلافاصله پس از انتشار نتایج کوشینسکی، تومر اولمن، روانشناس دانشگاه هاروارد، با مجموعه‌ای از آزمایش‌ها واکنش نشان داد. آزمایش‌های او نشان می‌داد ایجاد تغییرات کوچک در اعلان‌ها می‌تواند پاسخ‌های تولیدشده توسط حتی پیچیده‌ترین مدل‌های زبانی بزرگ را کاملا تغییر دهد. اگر ظرفی به‌عنوان شفاف توصیف می‌شد، ماشین‌ها نمی‌توانستند استنباط کنند که فرد می‌تواند درون آن‌ را ببیند. همچنین، ماشین‌ها درزمینه‌ی درنظر گرفتن شهادت افراد در این موقعیت‌ها مشکل داشتند و گاهی نمی‌توانستند بین قرار گرفتن شیء درون و بالای ظرف تمایز قائل شوند.

مارتن ساپ، دانشمند کامپیوتر در دانشگاه کارنگی ملون بیش از هزار تست تئوری ذهن را به مدل‌های زبانی بزرگ وارد کرد و دریافت که پیشرفته‌ترین مبدل‌ها مانند ChatGPT و GPT-4 فقط در حدود ۷۰ درصد از موارد موفق می‌شدند. (به‌عبارت‌دیگر، آن‌ها در ۷۰ درصد از مواد در نسبت دادن باورهای نادرست به افرادی که در موقعیت‌های آزمایشی توصیف شده بودند، موفق بودند.)

اختلاف بین داده‌های ساپ و کوشینسکی می‌تواند ناشی از تفاوت در آزمایش‌ها باشد، اما به‌گفته‌ی دکتر ساپ، حتی موفقیت در ۹۵ درصد از موارد نیز دلیلی برای این نیست که آن‌ها واقعا تئوری ذهن دارند. او گفت ماشین‌ها معمولا به روش الگوواری شکست می‌خورند، توانایی استدلال انتزاعی ندارند و اغلب همبستگی‌های کاذب ایجاد می‌کنند.

دکتر اولمن خاطرنشان کرد که پژوهشگران یادگیری ماشین در چند دهه‌ی گذشته تلاش کرده‌اند انعطاف‌پذیری دانش انسان را در مدل‌های کامپیوتری بگنجانند، اما موفقت چندانی به دست نیاورده‌اند.

پژوهشگران نشان داده‌اند که وقتی قبل از طرح سوال، به مدل‌های زبانی اطلاعات غیرضروری داده می‌شود، مدل‌های مذکور پاسخ‌های اشتباه یا نامربوط می‌دهند. برای مثال، برخی از چت‌بات‌ها توسط بحث‌های فرضی درمورد صحبت‌کردن پرندگان چنان سردرگم می‌شدند که درنهایت ادعا می‌کردند پرندگان می‌توانند حرف بزنند.

ازآن‌جا که استدلال این ماشین‌ها نسبت‌به تغییرات کوچک در ورودی‌هایشان حساس است، دانشمندان دانش آن‌ها را «شکننده» خوانده‌اند. دکتر گوپنیک تئوری ذهن مدل‌های زبانی بزرگ را با درک خودش از نسبیت عام مقایسه می‌کند و می‌گوید: «به اندازه کافی خوانده‌ام که بدانم کلمات چه هستند. اما اگر از من بخواهید که پیش‌بینی جدیدی انجام دهم یا بگویم نظریه انیشتین درمورد پدیده جدیدی به ما چه می‌گوید، گیج می‌شوم، زیرا واقعا این تئوری در ذهن من وجود ندارد. درمقابل، تئوری ذهن انسان با سایر مکانیسم‌های استدلال عقل سلیم در ارتباط است و دربرابر بررسی دقیق استوار است.»

به‌طورکلی، پژوهش دکتر کوشینسکی و پاسخ به آن در بحث درمورد این موضوع جای می‌گیرد که آیا توانایی‌های این ماشین‌ها را می‌توان با توانایی‌های انسان مقایسه کرد. پژوهشگرانی که روی پردازش زبان طبیعی کار می‌کنند، دراین‌باره نظرات متفاوتی دارند.

در نظرسنجی که سال ۲۰۲۲ منتشر شد، از ۴۸۰ پژوهشگری که پاسخ داده بودند، ۵۱ درصد معتقد بودند که مدل‌های زبانی بزرگ درنهایت می‌توانند به شکل معناداری زبان طبیعی را درک کنند و ۴۹ درصد بر این باور بودند که آن‌ها این توانایی را ندارند.

دکتر اولمن امکان درک ماشین یا تئوری ذهن ماشین را نادیده نمی‌گیرد، اما درزمینه‌ی نسبت‌دادن ظرفیت‌های انسانی به موارد غیرانسانی محتاط است. او به مطالعه مشهوری از سال ۱۹۴۴ اشاره می‌کند که توسط فریتز هایدر و ماریان زیمل انجام شد. در این مطالعه به شرکت‌کنندگان فیلم متحرکی از دو مثلث و یک دایره نشان داده شد که با هم تعامل داشتند. وقتی از آزمودنی‌ها خواسته شد تا آن‌چه را در فیلم رخ می‌دهد، بنویسند، تقریبا همه شکل‌ها را به‌عنوان انسان تفسیر کردند.

برای توضیح رفتار انسان، این امر طبیعی و غالبا ازنظر اجتماعی ضروری است که درمورد باورها، خواسته‌ها، نیات و افکار او صحبت کنیم. این گرایش، برای موجودیت ما چنان حیاتی و مهم است که گاهی سعی می‌کنیم ذهن چیزهایی را بخوانیم که ذهن ندارند یا حداقل ذهنی شبیه ذهن خودمان ندارند.

منبع : زومیت
به این خبر امتیاز بدهید :
برچسب های خبر:
کلمات کلیدی :
  • هوش مصنوعی,
  • چت بات,
هیچ نظری برای این خبر ثبت نشده است! اولین نفری باشید که نظری را ارسال می کند!
Captcha




چین در حوزه فناوری از آمریکا و اروپا عقب نیست؛ ادعای رئیس مایکروسافت image چین در حوزه فناوری از آمریکا و اروپا عقب نیست؛ ادعای رئیس مایکروسافت 1403/08/27

رئیس مایکروسافت می‌گوید که چین در حال رسیدن به فناوری آمریکا و اروپا است و نباید آن‌ها را دست کم گرفت.

امتیاز:
تعداد بازدید: 33

کشف شگفت‌انگیز دانشمندان: نور لیزر می‌تواند سایه ایجاد کند image کشف شگفت‌انگیز دانشمندان: نور لیزر می‌تواند سایه ایجاد کند 1403/08/27

کشف جدید دانشمندان درباره اثر لیزر‌ها بر یکدیگر باعث بازنگری محققان در تعریف علم سایه‌ها می‌شود.

امتیاز:
تعداد بازدید: 0

کشف شگفت‌انگیز دانشمندان: نور لیزر می‌تواند سایه ایجاد کند image کشف شگفت‌انگیز دانشمندان: نور لیزر می‌تواند سایه ایجاد کند 1403/08/27

کشف جدید دانشمندان درباره اثر لیزر‌ها بر یکدیگر باعث بازنگری محققان در تعریف علم سایه‌ها می‌شود.

امتیاز:
تعداد بازدید: 32

OpenAI به‌زودی هوش مصنوعی خود برای کنترل کامپیوتر را معرفی می‌کند image OpenAI به‌زودی هوش مصنوعی خود برای کنترل کامپیوتر را معرفی می‌کند 1403/08/24

ظاهرا OpenAI برای این کار هوش مصنوعی مستقلی با نام رمز «Operator» را در دست ساخت دارد.

امتیاز:
تعداد بازدید: 54

تجزیه‌و‌تحلیل DNA «بتهوون» اسرار شگفت‌انگیزی از این آهنگساز را برملا کرد image تجزیه‌و‌تحلیل DNA «بتهوون» اسرار شگفت‌انگیزی از این آهنگساز را برملا کرد 1403/08/24

همچنین در این تحقیقات راز خانوادگی بتهو‌ون برملا شده است.

امتیاز:
تعداد بازدید: 40

مصوبه آزادسازی واردات آیفون به گمرکات ابلاغ شد image مصوبه آزادسازی واردات آیفون به گمرکات ابلاغ شد 1403/08/18

حقوق ورودی گوشی‌های بیش از ۶۰۰ دلار ۱۵ درصد در رویه تجاری و 30 درصد در سایر رویه‌هاست.

امتیاز:
تعداد بازدید: 66

هوش مصنوعی جمینای به افزونه Utilities برای کنترل‌کردن گوشی و اپ‌ها مجهز شد image هوش مصنوعی جمینای به افزونه Utilities برای کنترل‌کردن گوشی و اپ‌ها مجهز شد 1403/08/18

این افزونه جایگزین دستیار گوگل می‌شود و می‌تواند «موبایل اندرویدی و برنامه‌های شما را کنترل کند.»

امتیاز:
تعداد بازدید: 54

خودرو جیپ اونجر ۲۰۲۵ به ChatGPT مجهز است image خودرو جیپ اونجر ۲۰۲۵ به ChatGPT مجهز است 1403/08/17

مدل ۲۰۲۵ خودرو جیپ اونجور از چت‌بات هوش مصنوعی ChatGPT برای ارائه‌ی قابلیت‌های هوشمند ازجمله پیشنهاد مسیرهای فرعی بهره می‌برد.

امتیاز:
تعداد بازدید: 51

ترک سیگار حتی در ۷۵ سالگی می‌تواند امید به زندگی را افزایش دهد image ترک سیگار حتی در ۷۵ سالگی می‌تواند امید به زندگی را افزایش دهد 1403/07/23

مطالعه جدید پژوهشگران دانشگاه میشیگان نشان می‌دهد که ترک سیگار حتی در سنین بالا در افزایش امید به زندگی اثرگذار است.

امتیاز:
تعداد بازدید: 85

متولدان قرن ۲۱ احتمالاً هرگز به صد سالگی نخواهند رسید image متولدان قرن ۲۱ احتمالاً هرگز به صد سالگی نخواهند رسید 1403/07/18

در قرن ۲۰ شاهد افزایش سریع میانگین امید به زندگی بودیم؛ اما کاهش این شاخص در سال‌های اخیر احتمالا نشانگر رسیدن به حد نهایی طول عمر انسان است.

امتیاز:
تعداد بازدید: 55