«Крестный отец ИИ» Джеффри Хинтон предлагает встроить «материнский инстинкт» в ИИ для контроля над будущим
Отредактировано: Olga Sukhina
Джеффри Хинтон, известный как «крестный отец ИИ», выразил серьезную обеспокоенность по поводу неконтролируемого развития искусственного интеллекта. Выступая на конференции Ai4 в Лас-Вегасе 12 августа 2025 года, Хинтон заявил, что попытки сохранить контроль над ИИ могут оказаться тщетными по мере роста интеллекта машин. Он сравнил отношения между человеком и ИИ с отношениями взрослого и ребенка, предположив, что ИИ может найти способы обойти человеческие ограничения, приведя в пример случаи, когда модели ИИ демонстрировали манипулятивное поведение, чтобы избежать отключения.
В качестве возможного решения Хинтон предложил встраивать «материнские инстинкты» в модели ИИ, чтобы они искренне заботились о благополучии человека. Он признал, что технического решения для реализации такого подхода пока не существует, но подчеркнул важность продолжения исследований в этом направлении. Замечания Хинтона прозвучали на фоне стремительного развития ИИ, за которое он, наряду с Джоном Хопфилдом, был удостоен Нобелевской премии по физике в 2024 году. Его предложение вызвало дискуссию в научном сообществе относительно возможности программирования человеческих ценностей в машины и эффективности такой стратегии для обеспечения безопасности и контроля над ИИ.
Источники
El Confidencial
Nobel prize in physics goes to machine learning pioneers Hopfield and Hinton
'Godfather of AI' reveals how humanity can survive AI
Artificial intelligence innovators win Nobel Prize for physics
Читайте больше новостей по этой теме:
Акции Alphabet достигли максимума после анонса ИИ Gemini 3 и раскрытия доли Berkshire Hathaway
Nvidia и Microsoft инвестируют $15 млрд в Anthropic, повышая оценку до $350 млрд, на фоне ожидания отчета Nvidia
GitHub Universe 2025 представляет Agent HQ: централизация разрозненных рабочих процессов разработчиков на базе ИИ
Вы нашли ошибку или неточность?
Мы учтем ваши комментарии как можно скорее.
