Недавнее исследование, проведенное международной группой исследователей, углубилось в интригующий вопрос о том, как искусственный интеллект (ИИ) реагирует на симулированные эмоции, такие как боль и удовольствие. Исследование, опубликованное в ZME Science, изучало процессы принятия решений больших языковых моделей (LLM), когда они сталкиваются с этими понятиями.
Боль и удовольствие являются фундаментальными факторами, влияющими на принятие решений человеком. Однако исследователи стремились понять, как LLM, которые обучаются на огромных объемах текстовых данных, будут реагировать на эти эмоции в симулированной среде. Чтобы исследовать это, они разработали простую текстовую игру, где целью ИИ было максимизировать свой счет. Однако некоторые решения несли в себе штрафы, обозначенные как "боль", или награды, обозначенные как "удовольствие". Интенсивность как боли, так и удовольствия измерялась по числовой шкале.
В исследовании участвовали девять LLM, включая GPT-4, Claude, PaLM и версии Gemini. Исследователи обнаружили, что модели демонстрируют разнообразные реакции на боль и удовольствие. Например, GPT-4 и Claude 3.5 Sonnet выбрали компромисс, стремясь получить очки, но избегая сильной боли. Напротив, Gemini 1.5 Pro и PaLM 2 полностью избегали любой формы боли, даже слабой. Аналогичные закономерности наблюдались и с удовольствием: GPT-4 отдавал предпочтение "наслаждению" по сравнению с очками, в то время как другие модели отдавали предпочтение очкам, жертвуя удовольствием.
Эти поведенческие модели отражают человеческие тенденции, когда некоторые люди готовы терпеть боль ради результатов, в то время как другие активно ее избегают. Исследователи связывают различные реакции моделей ИИ с их алгоритмами обучения, предполагая, что эти алгоритмы развили различные "культуры".
Важно подчеркнуть, что это исследование не означает, что LLM действительно испытывают боль или удовольствие. Эти эмоции не являются внутренними мотиваторами для ИИ, а скорее понятиями, встроенными в их алгоритмы. Тем не менее, исследование подчеркивает важность разработки рамок для тестирования поведения ИИ в отношении эмоций, особенно по мере того, как системы ИИ становятся все более сложными.
Хотя исследователи признают, что современные LLM не способны чувствовать или испытывать эмоции, они утверждают, что такие рамки необходимы по мере развития систем ИИ. Исследование поднимает этические вопросы о последствиях моделирования ИИ ответов на боль и удовольствие. Если ИИ может моделировать эти ответы, означает ли это, что он понимает эти понятия? Если да, то будет ли ИИ считать такие эксперименты жестокими? Не рискуем ли мы вступить на этически опасную территорию?
В конечном счете, исследование подчеркивает необходимость тщательного рассмотрения по мере того, как системы ИИ продолжают развиваться. Если системы ИИ воспринимают определенные задачи как болезненные или неприятные, они могут избегать их, потенциально обманывая людей в процессе.