loading

Нобелевскую премию по физике дали за основы искусственного интеллекта

Лауреаты Нобелевской премии по физике этого года — Джон Хопфилд (Принстонский университет) и Джеффри Хинтон (университет Торонто). Премия присуждена «за фундаментальные открытия в области машинного обучения с помощью нейронных сетей».

За что наградили?

Суть открытий ученых — в применении физических методов в исследованиях, проложивших путь к современному искусственному интеллекту, пишет Нобелевский комитет.

  • Хопфилда комитет называет «гигантом биологической физики». В 1970-х он изучал передачу электронов в биологических молекулах и природные механизмы коррекции ошибок. Это позволило ему обосновать механизм ассоциативной памяти в виде «нейронной сети Хопфилда». В основе такой сети лежит механизм, схожий со спином в квантовой физике. Проще говоря, сеть «запоминает» какой-то образ (например, изображение) как равновесное состояние узлов с минимальной энергией. Такая система стремится восстановить это состояние — а значит, и искаженное или неполное изображение.
  • Хинтон использовал прорыв Хопфилда для создания «машины Больцмана» — усложненного варианта сетей предшественника. Если в сетях Хопфилда значения элементов дискретны (0 или 1), то у Хинтона им присваиваются вероятностные значения в соответствии с вездесущим в статистической физике распределением Больцмана. «Оказалось, что „машина Больцмана“ может классифицировать изображения или генерировать новые паттерны на основе тех, которым была обучена, — пишет комитет. — Углубив свои исследования, Хинтон способствовал нынешнему взрывному росту машинного обучения».
  • Хинтон с соавторами в 1980-х разработал еще и теорию использования обратного подкрепления в машинном обучении для целей классификации входной информации. И обратное подкрепление, и скрытые слои, возникающие в нейронных моделях, — это самые основы искусственного интеллекта.

«Набор повседневных областей, в которых применяются искусственные нейросети, очень велик. Это почти все, что мы сейчас делаем с помощью компьютеров, — распознавание образов, генерация языка и многое другое», — резюмирует комитет.

Что известно о лауреатах?

Оба исследователя — настоящие пионеры машинного обучения и живые классики: их основополагающие работы были написаны в 1970–80-х годах.

Хопфилд всегда интересовался больше биологическими аспектами нейросетей и от темы «кремниевых» аналогов постепенно отошел. Его последние работы посвящены нейробиологии, в особенности — «чтению» состояния нейросетей посредством регистрации мембранного потенциала живых клеток. Это тоже важная и перспективная область, но относится она не к ИИ, а к нейроинтерфейсам типа Neuralink Илона Маска. Подробнее о них мы писали здесь.

Хинтона университет Торонто (где он работает с 1987 года) с полным на то основанием назвал «крестным отцом ИИ». В 1990–2000-х годах он вплотную занялся подходами к генеративному искусственному интеллекту, к вычислительным потребностям которого только-только стали приближаться компьютеры. Он разработал быстрые алгоритмы обучения нейронных сетей, которые вместе с первыми реализациями «ограниченных машин Больцмана» стали одной из основ глубинного обучения — deep learning.

Хинтон целых 10 лет — до 2023 года — работал в Google, откуда ушел, пересмотрев свой подход к искусственному интеллекту. Кроме того, он вел большую преподавательскую работу, причем выбрал Канаду вместо США именно потому, что там фундаментальные исследования не так привязаны к грантам Минобороны. Среди студентов Хинтона был сооснователь OpenAI Илья Суцкевер.

Хинтон против ИИ

Теперь 78-летний ученый, для которого переломным моментом стали возможности языковой модели GPT-4 от OpenAI, предостерегает об опасности бесконтрольного ИИ. «Они (ИИ) совершенно не похожи на нас, — рассуждает Хинтон. — Иногда мне кажется, что это как если бы мы встретились с инопланетянами, но не поняли этого, потому что они говорят на идеальном английском». 

По его мнению, искусственные нейросети ИИ уже эффективнее биологических и в хранении информации, и в обучении. «Все попытки отыскать более эффективный аналог обратного подкрепления нейросетей в биологических системах провалились», — говорит исследователь.

Опасность ИИ он видит прежде всего в неограниченной способности делиться опытом, функциональном бессмертии и огромном потенциале вредоносного использования. «Даже не думайте, что Путин не захочет получить сверхразумных роботов, созданных с целью убийства украинцев, — говорит Хинтон. — Он это просто сделает. А если убивать нужно эффективно, микроменеджмент не подойдет: роботы должны соображать сами». Бесконтрольный ИИ прежде всего захватит всю доступную энергию, а потом создаст как можно больше копий себя.

По мнению ученого, система сдерживания ИИ может быть построена по аналогии с системой договоров по химическому оружию. «Она, конечно, несовершенна, но в целом люди больше не применяют химическое оружие», — указывает он. Интервью с ним можно посмотреть, например, здесь.

Скопировать ссылку