خودسری هوش مصنوعی در ایجاد هنجارهای اجتماعی خاص خود

به گزارش نیروی برق، دانشمندان در یک مطالعه جدید متوجه شدند «مدل های زبانی بزرگ»(LLM) در «هوش مصنوعی» می توانند به صورت خودجوش هنجارهای اجتماعی مشترک را از راه تعامل با یکدیگر توسعه دهند و به توافق زبانی برسند.
به گزارش نیروی برق به نقل از ایسنا، محققان دریافته اند که مدلهای هوش مصنوعی می توانند به صورت خودجوش هنجارهای اجتماعی مشترک را از راه تعامل با یکدیگر توسعه دهند. آنها ادعا می کنند که وقتی این عامل ها در گروه هایی با یکدیگر ارتباط برقرار می کنند، صرفا از دستورالعمل ها پیروی نمی کنند یا الگوها را تکرار نمی کنند، بلکه خودسازماندهی می کنند و مانند جوامع انسانی در مورد هنجارهای زبانی به اجماع می رسند.
به نقل آی ای، «مدل های زبانی بزرگ»(LLM)، الگوریتم های قدرتمند یادگیری عمیق هستند که می توانند زبان انسانی را درک و تولید کنند که مشهورترین آنها تا به امروز «چت جی پی تی»(ChatGPT) است.
تیمی از «دانشگاه لندن» و «دانشگاه IT کپنهاگ»(Copenhagen) اشاره کرد که این مدلهای زبانی بزرگ هنگام برقراری ارتباط در گروه ها، تنها از دستورالعمل ها یا الگوها پیروی نمی کنند.

عامل های تعامل کننده

«آریل فلینت آشری»(Ariel Flint Ashery)، نویسنده ارشد این مقاله می گوید: بیشتر تحقیقات تاکنون، مدلهای زبانی بزرگ را به شکل مجزا بررسی نموده اند، اما سامانه های «هوش مصنوعی» در دنیای واقعی شامل عامل های تعامل کننده بسیاری خواهند بود. ما می خواستیم بدانیم که آیا این مدلها می توانند رفتار خویش را با بوجودآوردن هنجارها و قوانین یک جامعه، هماهنگ کنند؟ پاسخ مثبت است و کاری که آنها با هم انجام می دهند را نمی توان به آن چه که به تنهایی انجام می دهند، تقلیل داد.
یک چارچوب برای مطالعه هنجارهای اجتماعی در انسان ها، بر مبنای مدل «بازی نام گذاری»(naming game) در ایجاد آنها اقتباس گرفته شد.

نتایج تجربی

نتایج محققان، ظهور خودبه خودی هنجارهای اجتماعی پذیرفته شده جهانی را در جمعیت های غیرمتمرکز عامل های «مدل زبانی بزرگ» نشان میدهد.
دانشمندان این مطالعه می گویند: ما نشان می دهیم که چگونه سوگیری های جمعی قوی می توانند در طول این فرایند پدیدار شوند، حتی زمانی که عامل ها به شکل فردی هیچ سوگیری از خود نشان نمی دهند. در نهایت، ما بررسی می نماییم که چگونه گروههای اقلیت متعهد از عامل های مدل زبانی بزرگ خصمانه می توانند با تحمیل هنجارهای اجتماعی جایگزین بر جمعیت بزرگ تر، تغییرات اجتماعی را به وجود آورند.

توسعه خودکار هنجارهای اجتماعی

دانشمندان تاکید کردند که این سامانه ها می توانند بدون برنامه ریزی صریح، هنجارهای اجتماعی را به صورت خودکار توسعه دهند و این مساله پیامدهایی برای طراحی این سامانه ها دارد که با ارزش های انسانی و اهداف اجتماعی همسو هستند و همسو باقی می مانند.
آنها در آزمایش های خود، گروههای عامل مدل زبانی بزرگ از ۲۴ تا ۲۰۰ سامانه متغیر بودند و در هر آزمایش، دو عامل مدل زبانی بزرگ به صورت تصادفی با یکدیگر جفت شدند و از آنها خواسته شد که یک نام را از یک مجموعه گزینه های مشترک انتخاب کنند. اگر هر دو عامل یک نام را انتخاب می کردند، پاداش می گرفتند. در غیر این صورت، جریمه می شدند و انتخاب های یکدیگر را مشاهده می کردند.
محققان همینطور فاش کردند که عامل ها فقط به حافظه محدودی از تعاملات اخیر خود دسترسی داشتند و به آنها گفته نشده بود که بخشی از یک گروه هستند.
به قول محققان، در طول خیلی از این تعاملات، یک قرارداد نام گذاری مشترک می تواند به صورت خودجوش در سراسر جمعیت، بدون هیچ گونه هماهنگی ظهور کند و از ایجاد هنجارها در فرهنگ انسانی تقلید کند. نکته قابل توجه تر اینست که این تیم سوگیری های جمعی را مشاهده نمودند که نمی توان آنها را در عامل های فردی ردیابی کرد.
این یافته ها در مجله Science Advances انتشار یافته است.

منبع:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

More Articles & Posts