Российский ученый объяснил, в чем ценность работ лауреатов Нобелевской премии 2024 года
Альфред Нобель, должно быть, перевернулся в гробу: возможно, впервые в истории Нобелевская премия присуждена за откровенно математическое открытие, хотя, по словам представителей NobelPRIZ, оно сделано «с помощью физики». Речь идет об алгоритмах, которые позволяют научить нейронную сеть «думать» с помощью глубокого машинного обучения. О ценности работ американца Джона Хопфилда из Принстонского университета и Джеффри Хинтона из Университета Торонто, а также о том, на чьи работы они опирались, мы поговорили с Романом ДУШКИНЫМ, преподавателем Института интеллектуальных кибернетических систем НИЯУ МИФИ.
Объявляя лауреатов Нобелевской премии по физике 2024 года, ведущий церемонии сказал, что Джон Хопфилд создал ассоциативную память, которая может «хранить и восстанавливать изображения и другие типы закономерностей в данных». А Джеффри Хинтон изобрел метод, который «позволяет машине автономно находить свойства в данных, которые ей дают», идентифицируя их по определенным элементам. Статьи были написаны учеными в 1970-х и 1980-х годах прошлого века.
– Произошедшее – беспрецедентный случай. Потому что премия по физике на самом деле является премией по математике! – говорит Роман Душкин. – Альфред Нобель, вероятно, этого не простил бы. Он завещал черным по белому: «не давать математикам». Неясно, как Нобелевский комитет теперь будет обосновывать свое решение с юридической точки зрения.
– Повторюсь еще раз – так называемая сеть Хопфилда (названа она в честь ученого) – это математическая модель. Она весьма фундаментальна для решения отдельных классов задач оптимизации. Это определенная архитектура нейронной сети, которая может запоминать определенное количество эталонных образов. Представьте себе тысячу нейронов – каждый из которых связан друг с другом. Когда на вход этой сети мы подаем сигнал, несущий изображение (может быть, нечеткое, немного зашумленное), она на выходе восстанавливает эталонное изображение. По сути, это своего рода базовый фильтр, и работает он довольно эффективно. Этот принцип сейчас используется в распознавании образов, причем под образами мы подразумеваем не только визуальные образы. Это могут быть голосовые или цифровые сигналы.
– Еще в 80-х годах прошлого века он стал отцом машинного обучения. В частности, он был одним из тех, кто предложил «метод обратного распространения ошибки». Он понимал, как должны быть структурированы нейронные сети для решения фундаментальных задач. И я не удивлен, что его работа была так высоко отмечена.
– Если у нас есть нейронная сеть, мы хотим, чтобы она «понимала», какой сигнал мы через нее пропускаем. Например, мы даем ей на вход фотографию кошки. В идеале она должна выдать нам ответ: «кошка». Но она вдруг выдает нам: «лев». То есть что-то близкое, но не точное, с некоторым процентом погрешности. Слова «кошка» и «лев» закодированы в числовой форме. Что мы делаем? Мы вычитаем слово «лев» из числовой формы слова «кошка». Полученная разница называется ошибкой. Это то, что мы начинаем пропускать через сеть с самой последней точки до входного сигнала и постепенно корректируем понятийный аппарат машины. Хитрые формулы, с помощью которых мы это делаем, предложил Хинтон.
– Да, поначалу может запутаться, выдав льва вместо кота, но мы же вычисляем, что на самом деле нам нужно условно 0,25% от «льва», и так далее.
– В то время эти работы не выходили за рамки научных кругов. Единственными источниками, где можно было об этом прочитать, были специализированные научные журналы. Кстати, именно с такого журнала я в свое время и наткнулся, и началась моя эпопея с искусственным интеллектом. Шел 1986 год. Я нашел у дяди стопку журналов, подборку чего-то вроде «Радио и связь» за 1983 год. Один из тех журналов был целиком посвящен искусственному интеллекту. И представьте, я, девятилетний школьник, читаю его от корки до корки, заражаюсь идеей искусственного интеллекта на всю жизнь. В 1988 году, когда у меня появился первый ПК, я попробовал сделать на нем чат-бот под названием ELIZA, как было показано в журнале. Тогда из этого мало что вышло – компьютер был не совсем тем, что нужно. Но когда я уже получал диплом инженера в области систем искусственного интеллекта в 2000 году, мне действительно многие говорили: «Ты губишь свою карьеру» — даже в начале 21 века они не верили в развитие кибернетики.
– Нет. Там рассказывалось о том, что такое искусственный интеллект и каких результатов можно добиться с его помощью. Вообще-то, нейронные сети были изобретены еще в 50-х годах прошлого века — просто у ученых и математиков не было достаточно вычислительных мощностей для их создания. Например, первый нейрокомпьютер «Марк-1» был создан в 1958 году американцем Фрэнком Розенблаттом. «Нейроны» в ней были связаны между собой не фигурально, а буквально — это были железные ящики, которые специально обученные женщины-операторы соединяли проводами, периодически меняя связи между «нейронами».
– Я думаю, что советские математики Андрей Николаевич Колмогоров и Владимир Игоревич Арнольд были бы более достойны этого. Потому что они раньше всех вышеперечисленных, в 1957 году, доказали теорему, которая фактически лежит в основе всего глубокого машинного обучения. Хинтон, в частности, в своей работе делает многочисленные ссылки на труды Колмогорова и Арнольда. Все, что произошло и происходит сейчас с нейронными сетями, основано на их математических достижениях.