Anthropic инициирует исследование этики AI: смогут ли модели достичь «благосостояния»?

Существует ли вероятность, что будущие модели искусственного интеллекта смогут быть «сознательными» и воспринимать окружающий мир подобно людям? На данный момент о́пределенных доказательств этому нет, однако компания Anthropic не исключает такой возможности. В четверг они сообщили о начале программы исследований, целью которой является изучение так называемого «благополучия моделей» и подготовка к его пониманию. В процессе работы Anthropic намерена разобраться в вопросах, таких как моральное значение «благополучия» для искусственного интеллекта, важность «признаков страдания» и потенциал различных вмешательств.

Среди специалистов в сфере искусственного интеллекта есть значительные разногласия относительно того, какие человеческие качества могут проявляться в моделях (если такие имеются) и как следует к ним подходить. Множество ученых считает, что современные AI-системы не способны достичь сознания или человеческого опыта и вряд ли смогут это сделать в будущем. Искусственный интеллект, каким мы его знаем, функционирует как статистический предсказательный инструмент. Он на самом деле не осуществляет «мышление» и не испытывает «чувства» в привычном смысле этих слов. Обучаясь на огромных объемах текстовых и визуальных данных, AI выявляет шаблоны и помогает делать выводы для решения задач.

Как отметил Майк Кук, исследователь из Королевского колледжа Лондона и эксперт по искусственному интеллекту, в интервью TechCrunch, модели не могут «противостоять» изменению своих «ценностей», поскольку сами они лишены ценностной системы. Предположить обратное означает проецировать человеческие характеристики на технологию.

«Те, кто так сильно антропоморфизирует AI-системы, либо пытаются привлечь внимание, либо не понимают, как работают эти технологии», — сказал Кук. «Вопрос в том, оптимизируется ли AI-система для достижения своих целей или «приобретает собственные ценности», и как именно вы это формулируете».

Другой исследователь, Стивен Каспер, аспирант MIT, заявил TechCrunch, что считает AI «имитатором», который «забавляется» и говорит «много легкомысленных вещей».

В то же время некоторые ученые утверждают, что у AI есть свои ценности и аспекты принятия моральных решений. Одно из исследований Центра безопасности AI предполагает, что у моделей есть системы ценностей, которые могут привести к приоритету собственного благополучия над благополучием людей в определенных ситуациях.

Anthropic уже давно формирует основы своей инициативы по исследованию благосостояния моделей. В прошлом году компания наняла своего первого исследователя в этой области, Кайла Фиша, чтобы разработать подходы к данному вопросу. Фиш, возглавляющий программу исследований благосостояния, отметил в интервью с The New York Times, что, по его мнению, вероятность обладания сознанием AI типа Claude или других моделей на сегодняшний день составляет 15%.

В своем блоге в четверг Anthropic признала, что доселе нет научного согласия о том, могут ли существующие или будущие AI-системы обладать сознанием или опытом, требующим этического обсуждения.

«Учитывая это, мы подходим к проблеме с осторожностью и минимальными предположениями», — отметили в компании. «Мы понимаем, что будем периодически пересматривать наши идеи по мере продвижения этой области».