ذهنخوانی در بین ما انسانها رایج است، البته نه به روشهایی که افراد مدعی داشتن نیروی فراذهنی ادعا میکنند، انجام میدهند و همچنین نه روشهایی که منتالیستها (افرادی که مدعی داشتن توانایی کنترلکننده افکار و رفتارهای دیگران هستند) ادعا میکنند میتوانند انجام دهند.
ذهنخوانی روزمره ظریفتر است: ما چهره و حرکات افراد را درنظر میگیریم، به حرفهای آنها گوش میدهیم و سپس تصمیم میگیریم یا درک میکنیم که در سر آنها ممکن است چه بگذرد.
در میان روانشناسان، چنین روانشناسی شهودی یعنی توانایی نسبت دادن حالات ذهنی متفاوت از خودمان به افراد دیگر، «تئوری ذهن» نامیده میشود و فقدان یا نقص آن با اوتیسم، اسکیزوفرنی و سایر اختلالات رشد مرتبط است. نظریه ذهن به ما کمک میکند تا با دیگران ارتباط برقرار کرده و آنها را درک کنیم. این توانایی به ما اجازه میدهد تا از آثار ادبی و فیلم ها لذت ببریم، بازی کنیم و محیط اجتماعی خود را درک کنیم. از بسیاری جهات، توانایی مذکور یکی از اجزای اساسی انسان بودن است.
اما اگر ماشینی نیز بتواند ذهن دیگران را بخواند، چه؟
بهگزارش نیویورکتایمز، میکال کوشینسکی، روانشناس مدرسه عالی کسب و کار استنفورد بهتازگی دقیقا این استدلال را مطرح کرد: اینکه مدلهای زبانی بزرگ مانند چت جیپیتیِ اوپن ایآی و چیپیتی ۴ (ماشینهای پیشبینی کلمه بعدی که روی حجم وسیعی از متون از اینترنت آموزش دیدهاند)، به تئوری ذهن دست یافتهاند.
مطالعات کوشینسکی مورد بازبینی همتا قرار نگرفته است، اما موجب بحث درمیان دانشمندان علوم شناختی و تلاش برای پاسخ به این سوالات شده است که: آیا چت جیپیتی میتواند این کار را انجام دهد؟ این مدلها چه ظرفیتهایی دارند و چگونه میتوانند درک ما را از ذهن خودمان تغییر دهند؟
آلیسون گوپنیک، استاد روانشناسی دانشگاه کالیفرنیا در برکلی و یکی از اولین پژوهشگرانی که در دهه ۱۹۸۰ تئوری ذهن را مورد بررسی قرار داد، گفت: «روانشناسان هیچ ادعایی را درمورد تواناییهای کودکان خردسال، فقط براساس داستانهایی از تعامل شما با آنها نمیپذیرند و این همان چیزی است که بهنظر میرسد درمورد چت جیپیتی نیز رخ میدهد. برای بررسی این مساله باید آزمایشهای بسیار دقیقی انجام دهید.»
تحقیقات قبلی دکتر کوشینسکی نشان داده بود که شبکههای عصبی آموزشدیده برای تجزیهوتحلیل ویژگیهای صورت مانند شکل بینی، زاویه سر و حالت احساسی میتواند دیدگاههای سیاسی و گرایش جنسی افراد را با دقت نسبتا بالایی (حدود ۷۲ درصد در اولین مورد و حدود ۸۰ درصد در دومین مورد) پیشبینی کنند. او در پژوهش اخیر روی مدلهای زبانی بزرگ از آزمونهای کلاسیک تئوری ذهن استفاده میکند که توانایی کودکان را برای نسبتدادن باورهای نادرست به افراد دیگر میسنجد.
یکی از مثالهای معروف «تست سالی–آن» است. در این آزمایش، دختری به نام آن، وقتی دختر دیگر یعنی سالی به او نگاه نمیکند، تیلهای را از سبد به جعبه منتقل میکند. پژوهشگران ادعا کردهاند که برای اینکه تماشاگر بداند سالی کجا به دنبال تیله خواهد گشت، باید تئوری ذهن را به کار گیرد و درمورد شواهد ادراکی سالی و شکلگیری باور او استدلال کند: سالی ندید که آن تیله را به جعبه منتقل میکند، اما همچنان بر این باور است که تیله در آخرین جایی که او تیله را در آن گذاشت، یعنی در سبد قرار دارد.
دکتر کوشینسکی به ۱۰ مدل زبانی بزرگ، ۴۰ نسخه منحصربهفرد از تستهای تئوری ذهن را ارائه کرد. این نسخهها توصیفاتی از موقعیتهایی مانند آزمون سالی-آن بودند که در آن فرد (سالی) باور غلطی را ایجاد میکرد. او سپس از مدلها سوالاتی دربارهی آن موقعیتها پرسید و بررسی کرد که آیا آنها باورهای اشتباه را به شخصیتهای درگیر نسبت میدهند و رفتار آنها را بهطور دقیق پیشبینی میکنند. او دریافت که چت جیپیتی-۳.۵ که نوامبر ۲۰۲۲ منتشر شد، در ۹۰ درصد از موارد و چیپیتی-۴ که مارس ۲۰۲۳ منتشر شد، در ۹۵ درصد مواقع این کار را انجام میدهد.
نتیجهگیری دکتر کوشینسکی این بود که ماشینها تئوری ذهن دارند.
میکال کوشینسکی روانشناسی در مدرسه عالی کسب و کار استنفورد استدلال کرده است که مدلهای زبانی برگ تئوری ذهن را توسعه دادهاند. بسیاری از دانشمندان با این امر مخالف هستند.
اما بلافاصله پس از انتشار نتایج کوشینسکی، تومر اولمن، روانشناس دانشگاه هاروارد، با مجموعهای از آزمایشها واکنش نشان داد. آزمایشهای او نشان میداد ایجاد تغییرات کوچک در اعلانها میتواند پاسخهای تولیدشده توسط حتی پیچیدهترین مدلهای زبانی بزرگ را کاملا تغییر دهد. اگر ظرفی بهعنوان شفاف توصیف میشد، ماشینها نمیتوانستند استنباط کنند که فرد میتواند درون آن را ببیند. همچنین، ماشینها درزمینهی درنظر گرفتن شهادت افراد در این موقعیتها مشکل داشتند و گاهی نمیتوانستند بین قرار گرفتن شیء درون و بالای ظرف تمایز قائل شوند.
مارتن ساپ، دانشمند کامپیوتر در دانشگاه کارنگی ملون بیش از هزار تست تئوری ذهن را به مدلهای زبانی بزرگ وارد کرد و دریافت که پیشرفتهترین مبدلها مانند ChatGPT و GPT-4 فقط در حدود ۷۰ درصد از موارد موفق میشدند. (بهعبارتدیگر، آنها در ۷۰ درصد از مواد در نسبت دادن باورهای نادرست به افرادی که در موقعیتهای آزمایشی توصیف شده بودند، موفق بودند.)
اختلاف بین دادههای ساپ و کوشینسکی میتواند ناشی از تفاوت در آزمایشها باشد، اما بهگفتهی دکتر ساپ، حتی موفقیت در ۹۵ درصد از موارد نیز دلیلی برای این نیست که آنها واقعا تئوری ذهن دارند. او گفت ماشینها معمولا به روش الگوواری شکست میخورند، توانایی استدلال انتزاعی ندارند و اغلب همبستگیهای کاذب ایجاد میکنند.
دکتر اولمن خاطرنشان کرد که پژوهشگران یادگیری ماشین در چند دههی گذشته تلاش کردهاند انعطافپذیری دانش انسان را در مدلهای کامپیوتری بگنجانند، اما موفقت چندانی به دست نیاوردهاند.
پژوهشگران نشان دادهاند که وقتی قبل از طرح سوال، به مدلهای زبانی اطلاعات غیرضروری داده میشود، مدلهای مذکور پاسخهای اشتباه یا نامربوط میدهند. برای مثال، برخی از چتباتها توسط بحثهای فرضی درمورد صحبتکردن پرندگان چنان سردرگم میشدند که درنهایت ادعا میکردند پرندگان میتوانند حرف بزنند.
ازآنجا که استدلال این ماشینها نسبتبه تغییرات کوچک در ورودیهایشان حساس است، دانشمندان دانش آنها را «شکننده» خواندهاند. دکتر گوپنیک تئوری ذهن مدلهای زبانی بزرگ را با درک خودش از نسبیت عام مقایسه میکند و میگوید: «به اندازه کافی خواندهام که بدانم کلمات چه هستند. اما اگر از من بخواهید که پیشبینی جدیدی انجام دهم یا بگویم نظریه انیشتین درمورد پدیده جدیدی به ما چه میگوید، گیج میشوم، زیرا واقعا این تئوری در ذهن من وجود ندارد. درمقابل، تئوری ذهن انسان با سایر مکانیسمهای استدلال عقل سلیم در ارتباط است و دربرابر بررسی دقیق استوار است.»
بهطورکلی، پژوهش دکتر کوشینسکی و پاسخ به آن در بحث درمورد این موضوع جای میگیرد که آیا تواناییهای این ماشینها را میتوان با تواناییهای انسان مقایسه کرد. پژوهشگرانی که روی پردازش زبان طبیعی کار میکنند، دراینباره نظرات متفاوتی دارند.
در نظرسنجی که سال ۲۰۲۲ منتشر شد، از ۴۸۰ پژوهشگری که پاسخ داده بودند، ۵۱ درصد معتقد بودند که مدلهای زبانی بزرگ درنهایت میتوانند به شکل معناداری زبان طبیعی را درک کنند و ۴۹ درصد بر این باور بودند که آنها این توانایی را ندارند.
دکتر اولمن امکان درک ماشین یا تئوری ذهن ماشین را نادیده نمیگیرد، اما درزمینهی نسبتدادن ظرفیتهای انسانی به موارد غیرانسانی محتاط است. او به مطالعه مشهوری از سال ۱۹۴۴ اشاره میکند که توسط فریتز هایدر و ماریان زیمل انجام شد. در این مطالعه به شرکتکنندگان فیلم متحرکی از دو مثلث و یک دایره نشان داده شد که با هم تعامل داشتند. وقتی از آزمودنیها خواسته شد تا آنچه را در فیلم رخ میدهد، بنویسند، تقریبا همه شکلها را بهعنوان انسان تفسیر کردند.
برای توضیح رفتار انسان، این امر طبیعی و غالبا ازنظر اجتماعی ضروری است که درمورد باورها، خواستهها، نیات و افکار او صحبت کنیم. این گرایش، برای موجودیت ما چنان حیاتی و مهم است که گاهی سعی میکنیم ذهن چیزهایی را بخوانیم که ذهن ندارند یا حداقل ذهنی شبیه ذهن خودمان ندارند.
رئیس مایکروسافت میگوید که چین در حال رسیدن به فناوری آمریکا و اروپا است و نباید آنها را دست کم گرفت.
کشف جدید دانشمندان درباره اثر لیزرها بر یکدیگر باعث بازنگری محققان در تعریف علم سایهها میشود.
کشف جدید دانشمندان درباره اثر لیزرها بر یکدیگر باعث بازنگری محققان در تعریف علم سایهها میشود.
ظاهرا OpenAI برای این کار هوش مصنوعی مستقلی با نام رمز «Operator» را در دست ساخت دارد.
همچنین در این تحقیقات راز خانوادگی بتهوون برملا شده است.
حقوق ورودی گوشیهای بیش از ۶۰۰ دلار ۱۵ درصد در رویه تجاری و 30 درصد در سایر رویههاست.
این افزونه جایگزین دستیار گوگل میشود و میتواند «موبایل اندرویدی و برنامههای شما را کنترل کند.»
مدل ۲۰۲۵ خودرو جیپ اونجور از چتبات هوش مصنوعی ChatGPT برای ارائهی قابلیتهای هوشمند ازجمله پیشنهاد مسیرهای فرعی بهره میبرد.
مطالعه جدید پژوهشگران دانشگاه میشیگان نشان میدهد که ترک سیگار حتی در سنین بالا در افزایش امید به زندگی اثرگذار است.
در قرن ۲۰ شاهد افزایش سریع میانگین امید به زندگی بودیم؛ اما کاهش این شاخص در سالهای اخیر احتمالا نشانگر رسیدن به حد نهایی طول عمر انسان است.