Може ли изкуственият интелект да „чувства“ вина?

от Измама

Някои научнофантастични сценарии изобразяват роботите като безсърдечни, безмилостни създания, готови да манипулират хората като марионетки. Но това не е единственият възможен път за развитието на изкуствения интелект. Ново изследване предлага алтернатива: изкуствен интелект, който „изпитва вина“ – не от състрадание, а от логика, оптимизираща сътрудничеството.

Хората са развили емоции като гняв, тъга и благодарност, за да улеснят мисленето, взаимодействието и изграждането на доверие. Учените предполагат, че същите механизми могат да бъдат програмирани и в изкуствения интелект. Изследване, публикувано в Journal of the Royal Society Interface, показва, че дори при опростени софтуерни агенти, нещо като „вина“ може да се окаже еволюционно устойчиво и дори полезно.

Изследователите използвали симулации с прости агенти – наподобяващи герои от игра като The Sims, но далеч по-примитивни – които участват в стратегическа игра, наречена повтаряща се дилема на затворника. Всеки агент можел да избира между сътрудничество и измяна. Егоизмът носел краткосрочни печалби, но дългосрочно водел до загуба на доверие и точки.

В една от шестте стратегии, тествани в симулациите, агентите изпитвали нещо като „вина“ след измяна – губели точки, докато не възстановят доверието чрез сътрудничество. Но имало уловка: вината се активирала само ако агентът научи, че и партньорът му страда от вина. Това спирало злоупотребата с „жертвена“ позиция и създавало по-устойчиви условия за взаимно сътрудничество.

При определени условия – особено когато вината не е твърде скъпа и агентите общуват в ограничени мрежи – стратегията на виновността (наречена DGCS) се оказала доминираща. Повечето взаимодействия ставали кооперативни, а деструктивното поведение намалявало.

„Може би е по-лесно да се довериш, когато имаш усещането, че агентът мисли като теб“, казва Теодор Чимпеану, компютърен учен от Университета на Стърлинг и водещ автор на изследването. Според него, ако изкуствените интелекти могат да се адаптират или самопрограмират, те биха могли да „открият“ функционални емоции като вина дори без човешка намеса.

Но не всички са убедени. Философът Сарита Розенсток от Университета в Мелбърн предупреждава, че симулациите разчитат на множество опростени допускания и не могат да се използват за генерални заключения. Все пак, тя признава приноса на изследването към „картографирането на възможностите“, показвайки къде вината като стратегия оцелява – и къде не.

Остава и практическият въпрос: какво значи „вина“ за изкуствен интелект? Ако днешен чатбот казва „съжалявам“, той не плаща цена за това. Без механизъм за реални вътрешни ограничения или прозрачност, ИИ може просто да симулира съжаление – само за да повтори същото поведение след това.

Това повдига сериозни етични и инженерни въпроси за бъдещето: Трябва ли да учим машините на емоции – или на морал? И ако да, как ще знаем, че наистина ги „изпитват“, а не просто ни заблуждават?

https://glasnews.bg/

Може също да харесате

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?

Този уебсайт използва бисквитки, за да подобри вашето изживяване. Ще приемем, че сте съгласни с това, но можете да се откажете, ако желаете. Приеми Прочети повече

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00