خدمات سایت


متن کامل خبر

آیا چت بات های هوش مصنوعی به تئوری ذهن دست پیدا کرده‌اند؟

آرشیو
برخی از پژوهشگران ادعا کرده‌اند که چت‌بات‌ها به تئوری ذهن یا توانایی حدس‌زدن آنچه در ذهن ما می‌گذرد، دست یافته‌اند. آیا این امر واقعیت دارد؟
1402/01/16 11:17:40 ق.ظ

ذهن‌خوانی در بین ما انسان‌ها رایج است، البته نه به روش‌هایی که افراد مدعی داشتن نیروی فراذهنی ادعا می‌کنند، انجام می‌دهند و همچنین نه روش‌‌هایی که منتالیست‌ها (افرادی که مدعی داشتن توانایی کنترل‌کننده افکار و رفتارهای دیگران هستند) ادعا می‌کنند می‌توانند انجام دهند.

ذهن‌خوانی روزمره ظریف‌تر است: ما چهره و حرکات افراد را درنظر می‌گیریم، به حرف‌های آن‌ها گوش می‌دهیم و سپس تصمیم می‌گیریم یا درک می‌کنیم که در سر آن‌ها ممکن است چه بگذرد.

در میان روانشناسان، چنین روانشناسی شهودی یعنی توانایی نسبت دادن حالات ذهنی متفاوت از خودمان به افراد دیگر، «تئوری ذهن» نامیده می‌شود و فقدان یا نقص آن با اوتیسم، اسکیزوفرنی و سایر اختلالات رشد مرتبط است. نظریه ذهن به ما کمک می‌کند تا با دیگران ارتباط برقرار کرده و آن‌ها را درک کنیم. این توانایی به ما اجازه می‌دهد تا از آثار ادبی و فیلم ها لذت ببریم، بازی کنیم و محیط اجتماعی خود را درک کنیم. از بسیاری جهات، توانایی مذکور یکی از اجزای اساسی انسان بودن است.

اما اگر ماشینی نیز بتواند ذهن دیگران را بخواند، چه؟
به‌گزارش نیویورک‌تایمز، میکال کوشینسکی، روانشناس مدرسه عالی کسب و کار استنفورد به‌تازگی دقیقا این استدلال را مطرح کرد: اینکه مدل‌های زبانی بزرگ مانند چت جی‌پی‌تیِ اوپن ای‌آی و چی‌پی‌تی ۴ (ماشین‌های پیش‌بینی کلمه بعدی که روی حجم وسیعی از متون از اینترنت آموزش دیده‌اند)، به تئوری ذهن دست یافته‌اند.

مطالعات کوشینسکی مورد بازبینی همتا قرار نگرفته است، اما موجب بحث درمیان دانشمندان علوم شناختی و تلاش برای پاسخ به این سوالات شده است که: آیا چت جی‌پی‌تی می‌تواند این کار را انجام دهد؟ این مدل‌ها چه ظرفیت‌هایی دارند و چگونه می‌توانند درک ما را از ذهن خودمان تغییر دهند؟

آلیسون گوپنیک، استاد روانشناسی دانشگاه کالیفرنیا در برکلی و یکی از اولین پژوهشگرانی که در دهه ۱۹۸۰ تئوری ذهن را مورد بررسی قرار داد، گفت: «روانشناسان هیچ ادعایی را درمورد توانایی‌های کودکان خردسال، فقط براساس داستان‌هایی از تعامل شما با آن‌ها نمی‌پذیرند و این همان چیزی است که به‌نظر می‌رسد درمورد چت جی‌پی‌تی نیز رخ می‌دهد. برای بررسی این مساله باید آزمایش‌های بسیار دقیقی انجام دهید.»

تحقیقات قبلی دکتر کوشینسکی نشان داده بود که شبکه‌های عصبی آموزش‌دیده برای تجزیه‌و‌تحلیل ویژگی‌های صورت مانند شکل بینی، زاویه سر و حالت احساسی می‌تواند دیدگاه‌های سیاسی و گرایش جنسی افراد را با دقت نسبتا بالایی (حدود ۷۲ درصد در اولین مورد و حدود ۸۰ درصد در دومین مورد) پیش‌بینی کنند. او در پژوهش اخیر روی مدل‌های زبانی بزرگ از آزمون‌های کلاسیک تئوری ذهن استفاده می‌کند که توانایی کودکان را برای نسبت‌دادن باورهای نادرست به افراد دیگر می‌سنجد.

یکی از مثال‌های معروف «تست سالی–آن» است. در این آزمایش، دختری به نام آن، وقتی دختر دیگر یعنی سالی به او نگاه نمی‌کند، تیله‌ای را از سبد به جعبه منتقل می‌کند. پژوهشگران ادعا کرده‌اند که برای اینکه تماشاگر بداند سالی کجا به دنبال تیله خواهد گشت، باید تئوری ذهن را به کار گیرد و درمورد شواهد ادراکی سالی و شکل‌گیری باور او استدلال کند: سالی ندید که آن تیله را به جعبه منتقل می‌کند، اما همچنان بر این باور است که تیله در آخرین جایی که او تیله را در آن گذاشت، یعنی در سبد قرار دارد.

دکتر کوشینسکی به ۱۰ مدل زبانی بزرگ، ۴۰ نسخه منحصربه‌فرد از تست‌های تئوری ذهن را ارائه کرد. این نسخه‌ها توصیفاتی از موقعیت‌هایی مانند آزمون سالی-آن بودند که در آن فرد (سالی) باور غلطی را ایجاد می‌کرد. او سپس از مدل‌ها سوالاتی درباره‌ی آن موقعیت‌ها پرسید و بررسی کرد که آیا آن‌ها باورهای اشتباه را به شخصیت‌های درگیر نسبت می‌دهند و رفتار آن‌ها را به‌طور دقیق پیش‌بینی می‌کنند. او دریافت که چت جی‌پی‌تی-۳.۵ که نوامبر ۲۰۲۲ منتشر شد، در ۹۰ درصد از موارد و چی‌پی‌تی-۴ که مارس ۲۰۲۳ منتشر شد، در ۹۵ درصد مواقع این کار را انجام می‌دهد.

نتیجه‌گیری دکتر کوشینسکی این بود که ماشین‌ها تئوری ذهن دارند.

میکال کوشینسکی روانشناسی در مدرسه عالی کسب و کار استنفورد استدلال کرده است که مدل‌های زبانی برگ تئوری ذهن را توسعه داده‌اند. بسیاری از دانشمندان با این امر مخالف هستند.

اما بلافاصله پس از انتشار نتایج کوشینسکی، تومر اولمن، روانشناس دانشگاه هاروارد، با مجموعه‌ای از آزمایش‌ها واکنش نشان داد. آزمایش‌های او نشان می‌داد ایجاد تغییرات کوچک در اعلان‌ها می‌تواند پاسخ‌های تولیدشده توسط حتی پیچیده‌ترین مدل‌های زبانی بزرگ را کاملا تغییر دهد. اگر ظرفی به‌عنوان شفاف توصیف می‌شد، ماشین‌ها نمی‌توانستند استنباط کنند که فرد می‌تواند درون آن‌ را ببیند. همچنین، ماشین‌ها درزمینه‌ی درنظر گرفتن شهادت افراد در این موقعیت‌ها مشکل داشتند و گاهی نمی‌توانستند بین قرار گرفتن شیء درون و بالای ظرف تمایز قائل شوند.

مارتن ساپ، دانشمند کامپیوتر در دانشگاه کارنگی ملون بیش از هزار تست تئوری ذهن را به مدل‌های زبانی بزرگ وارد کرد و دریافت که پیشرفته‌ترین مبدل‌ها مانند ChatGPT و GPT-4 فقط در حدود ۷۰ درصد از موارد موفق می‌شدند. (به‌عبارت‌دیگر، آن‌ها در ۷۰ درصد از مواد در نسبت دادن باورهای نادرست به افرادی که در موقعیت‌های آزمایشی توصیف شده بودند، موفق بودند.)

اختلاف بین داده‌های ساپ و کوشینسکی می‌تواند ناشی از تفاوت در آزمایش‌ها باشد، اما به‌گفته‌ی دکتر ساپ، حتی موفقیت در ۹۵ درصد از موارد نیز دلیلی برای این نیست که آن‌ها واقعا تئوری ذهن دارند. او گفت ماشین‌ها معمولا به روش الگوواری شکست می‌خورند، توانایی استدلال انتزاعی ندارند و اغلب همبستگی‌های کاذب ایجاد می‌کنند.

دکتر اولمن خاطرنشان کرد که پژوهشگران یادگیری ماشین در چند دهه‌ی گذشته تلاش کرده‌اند انعطاف‌پذیری دانش انسان را در مدل‌های کامپیوتری بگنجانند، اما موفقت چندانی به دست نیاورده‌اند.

پژوهشگران نشان داده‌اند که وقتی قبل از طرح سوال، به مدل‌های زبانی اطلاعات غیرضروری داده می‌شود، مدل‌های مذکور پاسخ‌های اشتباه یا نامربوط می‌دهند. برای مثال، برخی از چت‌بات‌ها توسط بحث‌های فرضی درمورد صحبت‌کردن پرندگان چنان سردرگم می‌شدند که درنهایت ادعا می‌کردند پرندگان می‌توانند حرف بزنند.

ازآن‌جا که استدلال این ماشین‌ها نسبت‌به تغییرات کوچک در ورودی‌هایشان حساس است، دانشمندان دانش آن‌ها را «شکننده» خوانده‌اند. دکتر گوپنیک تئوری ذهن مدل‌های زبانی بزرگ را با درک خودش از نسبیت عام مقایسه می‌کند و می‌گوید: «به اندازه کافی خوانده‌ام که بدانم کلمات چه هستند. اما اگر از من بخواهید که پیش‌بینی جدیدی انجام دهم یا بگویم نظریه انیشتین درمورد پدیده جدیدی به ما چه می‌گوید، گیج می‌شوم، زیرا واقعا این تئوری در ذهن من وجود ندارد. درمقابل، تئوری ذهن انسان با سایر مکانیسم‌های استدلال عقل سلیم در ارتباط است و دربرابر بررسی دقیق استوار است.»

به‌طورکلی، پژوهش دکتر کوشینسکی و پاسخ به آن در بحث درمورد این موضوع جای می‌گیرد که آیا توانایی‌های این ماشین‌ها را می‌توان با توانایی‌های انسان مقایسه کرد. پژوهشگرانی که روی پردازش زبان طبیعی کار می‌کنند، دراین‌باره نظرات متفاوتی دارند.

در نظرسنجی که سال ۲۰۲۲ منتشر شد، از ۴۸۰ پژوهشگری که پاسخ داده بودند، ۵۱ درصد معتقد بودند که مدل‌های زبانی بزرگ درنهایت می‌توانند به شکل معناداری زبان طبیعی را درک کنند و ۴۹ درصد بر این باور بودند که آن‌ها این توانایی را ندارند.

دکتر اولمن امکان درک ماشین یا تئوری ذهن ماشین را نادیده نمی‌گیرد، اما درزمینه‌ی نسبت‌دادن ظرفیت‌های انسانی به موارد غیرانسانی محتاط است. او به مطالعه مشهوری از سال ۱۹۴۴ اشاره می‌کند که توسط فریتز هایدر و ماریان زیمل انجام شد. در این مطالعه به شرکت‌کنندگان فیلم متحرکی از دو مثلث و یک دایره نشان داده شد که با هم تعامل داشتند. وقتی از آزمودنی‌ها خواسته شد تا آن‌چه را در فیلم رخ می‌دهد، بنویسند، تقریبا همه شکل‌ها را به‌عنوان انسان تفسیر کردند.

برای توضیح رفتار انسان، این امر طبیعی و غالبا ازنظر اجتماعی ضروری است که درمورد باورها، خواسته‌ها، نیات و افکار او صحبت کنیم. این گرایش، برای موجودیت ما چنان حیاتی و مهم است که گاهی سعی می‌کنیم ذهن چیزهایی را بخوانیم که ذهن ندارند یا حداقل ذهنی شبیه ذهن خودمان ندارند.

منبع : زومیت
به این خبر امتیاز بدهید :
برچسب های خبر:
کلمات کلیدی :
  • هوش مصنوعی,
  • چت بات,
هیچ نظری برای این خبر ثبت نشده است! اولین نفری باشید که نظری را ارسال می کند!
Captcha




عفونت کووید مردی هلندی آن‌قدر طولانی بود که ویروس درون او به گونه‌ای جدید تکامل یافت image عفونت کووید مردی هلندی آن‌قدر طولانی بود که ویروس درون او به گونه‌ای جدید تکامل یافت 1403/02/09

نقص سیستم ایمنی در نهایت باعث شد تا مرد هلندی پس از ماه‌ها مبارزه با کووید-۱۹ و بارها بستری‌شدن در بیمارستان، جان خود را از دست بدهد.

امتیاز:
تعداد بازدید: 5

OMODA & JAECOO از اولین ربات بیونیک و Gait-walking جهان رونمایی می‌کند image OMODA & JAECOO از اولین ربات بیونیک و Gait-walking جهان رونمایی می‌کند 1403/02/01

در ۲۵ آوریل و همزمان با نمایشگاه بین المللی خودرو پکن، از سبک جدیدی از هارمونی نوآوری در خانواده سریNew Energy رونمایی خواهد شد، محصولی که می تواند نُت جدیدی در سمفونی "محصول جدید + فن آوری نو+ اکوسیستم پویا" باشد.

امتیاز:
تعداد بازدید: 32

چرا تانک تی ۹۰ روسیه در باتلاق اوکراین گیر کرده است؟ image چرا تانک تی ۹۰ روسیه در باتلاق اوکراین گیر کرده است؟ 1403/01/25

بسیاری انتظار داشتند که بهترین تانک روسیه یعنی T-14 آرماتا در اوکراین خودنمایی کند. هرچند اینگونه نشد و تانک تی 90 این کشور نیز حسابی در اوکراین با مشکل مواجه شده است.

امتیاز:
تعداد بازدید: 44

ترسناک‌ترین هلیکوپتر چینی‌ ها برای اولین بار در آسمان شکار شد image ترسناک‌ترین هلیکوپتر چینی‌ ها برای اولین بار در آسمان شکار شد 1403/01/05

هلیکوپتر تهاجمی جدید چینی ها برای اولین بار در آسمان دیده شده و احتمالا توانایی‌های جذابی دارد. در ادامه با هلیکوپتر سنگین Z-21 آشنا شوید.

امتیاز:
تعداد بازدید: 67

استخراج طلا از قطعات کامپیوتر با پروتئین وی! image استخراج طلا از قطعات کامپیوتر با پروتئین وی! 1402/12/13

پروتئین مورد استفاده‌ی بدن‌سازان، هزینه‌ی استخراج طلا از زباله‌های الکترونیکی را تا ۵۰ برابر کاهش می‌دهد.

امتیاز:
تعداد بازدید: 73

توسعه حسگرهای چهره‌ پوشیدنی که می‌توانند احساسات ما را درک کنند image توسعه حسگرهای چهره‌ پوشیدنی که می‌توانند احساسات ما را درک کنند 1402/12/07

تیمی در کره، سیستم قابل پوشش و کشش صورت ایجاد کرده‌اند که از بررسی اصطکاک و لرزش پوست برای ارزیابی احساسات انسان استفاده می‌کند.

امتیاز:
تعداد بازدید: 73

شرکت نورالینک ایلان ماسک قدرت ابرانسان‌ها را به این بیمار هدیه داد image شرکت نورالینک ایلان ماسک قدرت ابرانسان‌ها را به این بیمار هدیه داد 1402/12/02

ایلان ماسک از موفقیت اولین آزمایش انسانی نورالینک خبر داد و اعلام کرد به‌لطف تراشه این شرکت، بیمار نوعی توانایی ابرانسانی پیدا کرده است.

امتیاز:
تعداد بازدید: 104

سورپرایز فضانورد ایرانی در ایستگاه فضایی بین المللی: بفرمایید قورمه سبزی! image سورپرایز فضانورد ایرانی در ایستگاه فضایی بین المللی: بفرمایید قورمه سبزی! 1402/11/24

یاسمین مقبلی، فضانورد ایرانی‌تبار ناسا به همکارانش در ایستگاه فضایی بین‌المللی قورمه سبزی تعارف کرد و ظاهرا آن‌ها هم طرفدار این غذا شده‌اند.

امتیاز:
تعداد بازدید: 106

ربات جنجالی پلیس نیویورک بازنشسته شد image ربات جنجالی پلیس نیویورک بازنشسته شد 1402/11/15

پلیس نیویورک سرانجام رباتی را که قرار بود به نظارت در مترو شهر بپردازد، بازنشسته کرد.

امتیاز:
تعداد بازدید: 94

این دستگاه عجیب، از هوا آب می‌گیرد image این دستگاه عجیب، از هوا آب می‌گیرد 1402/10/19

کمپانی Genesis System در خلال رویداد CES 2024 از یک دستگاه عجیب رونمایی کرد که قادر است از رطوبت هوا آب تولید کند.

امتیاز:
تعداد بازدید: 192