GENERICO.ruНаукаНарушение завещания Нобеля: математикам присудили премию по физике

Нарушение завещания Нобеля: математикам присудили премию по физике

Российский ученый объяснил, в чем ценность работ лауреатов Нобелевской премии 2024 года

Альфред Нобель, должно быть, перевернулся в гробу: возможно, впервые в истории Нобелевская премия присуждена за откровенно математическое открытие, хотя, по словам представителей NobelPRIZ, оно сделано «с помощью физики». Речь идет об алгоритмах, которые позволяют научить нейронную сеть «думать» с помощью глубокого машинного обучения. О ценности работ американца Джона Хопфилда из Принстонского университета и Джеффри Хинтона из Университета Торонто, а также о том, на чьи работы они опирались, мы поговорили с Романом ДУШКИНЫМ, преподавателем Института интеллектуальных кибернетических систем НИЯУ МИФИ.

Российский ученый объяснил, чем ценны работы нобелевских лауреатов 2024 года

Объявляя лауреатов Нобелевской премии по физике 2024 года, ведущий церемонии сказал, что Джон Хопфилд создал ассоциативную память, которая может «хранить и восстанавливать изображения и другие типы закономерностей в данных». А Джеффри Хинтон изобрел метод, который «позволяет машине автономно находить свойства в данных, которые ей дают», идентифицируя их по определенным элементам. Статьи были написаны учеными в 1970-х и 1980-х годах прошлого века.

– Произошедшее – беспрецедентный случай. Потому что премия по физике на самом деле является премией по математике! – говорит Роман Душкин. – Альфред Нобель, вероятно, этого не простил бы. Он завещал черным по белому: «не давать математикам». Неясно, как Нобелевский комитет теперь будет обосновывать свое решение с юридической точки зрения.

– Повторюсь еще раз – так называемая сеть Хопфилда (названа она в честь ученого) – это математическая модель. Она весьма фундаментальна для решения отдельных классов задач оптимизации. Это определенная архитектура нейронной сети, которая может запоминать определенное количество эталонных образов. Представьте себе тысячу нейронов – каждый из которых связан друг с другом. Когда на вход этой сети мы подаем сигнал, несущий изображение (может быть, нечеткое, немного зашумленное), она на выходе восстанавливает эталонное изображение. По сути, это своего рода базовый фильтр, и работает он довольно эффективно. Этот принцип сейчас используется в распознавании образов, причем под образами мы подразумеваем не только визуальные образы. Это могут быть голосовые или цифровые сигналы.

– Еще в 80-х годах прошлого века он стал отцом машинного обучения. В частности, он был одним из тех, кто предложил «метод обратного распространения ошибки». Он понимал, как должны быть структурированы нейронные сети для решения фундаментальных задач. И я не удивлен, что его работа была так высоко отмечена.

– Если у нас есть нейронная сеть, мы хотим, чтобы она «понимала», какой сигнал мы через нее пропускаем. Например, мы даем ей на вход фотографию кошки. В идеале она должна выдать нам ответ: «кошка». Но она вдруг выдает нам: «лев». То есть что-то близкое, но не точное, с некоторым процентом погрешности. Слова «кошка» и «лев» закодированы в числовой форме. Что мы делаем? Мы вычитаем слово «лев» из числовой формы слова «кошка». Полученная разница называется ошибкой. Это то, что мы начинаем пропускать через сеть с самой последней точки до входного сигнала и постепенно корректируем понятийный аппарат машины. Хитрые формулы, с помощью которых мы это делаем, предложил Хинтон.

– Да, поначалу может запутаться, выдав льва вместо кота, но мы же вычисляем, что на самом деле нам нужно условно 0,25% от «льва», и так далее.

– В то время эти работы не выходили за рамки научных кругов. Единственными источниками, где можно было об этом прочитать, были специализированные научные журналы. Кстати, именно с такого журнала я в свое время и наткнулся, и началась моя эпопея с искусственным интеллектом. Шел 1986 год. Я нашел у дяди стопку журналов, подборку чего-то вроде «Радио и связь» за 1983 год. Один из тех журналов был целиком посвящен искусственному интеллекту. И представьте, я, девятилетний школьник, читаю его от корки до корки, заражаюсь идеей искусственного интеллекта на всю жизнь. В 1988 году, когда у меня появился первый ПК, я попробовал сделать на нем чат-бот под названием ELIZA, как было показано в журнале. Тогда из этого мало что вышло – компьютер был не совсем тем, что нужно. Но когда я уже получал диплом инженера в области систем искусственного интеллекта в 2000 году, мне действительно многие говорили: «Ты губишь свою карьеру» — даже в начале 21 века они не верили в развитие кибернетики.

– Нет. Там рассказывалось о том, что такое искусственный интеллект и каких результатов можно добиться с его помощью. Вообще-то, нейронные сети были изобретены еще в 50-х годах прошлого века — просто у ученых и математиков не было достаточно вычислительных мощностей для их создания. Например, первый нейрокомпьютер «Марк-1» был создан в 1958 году американцем Фрэнком Розенблаттом. «Нейроны» в ней были связаны между собой не фигурально, а буквально — это были железные ящики, которые специально обученные женщины-операторы соединяли проводами, периодически меняя связи между «нейронами».

– Я думаю, что советские математики Андрей Николаевич Колмогоров и Владимир Игоревич Арнольд были бы более достойны этого. Потому что они раньше всех вышеперечисленных, в 1957 году, доказали теорему, которая фактически лежит в основе всего глубокого машинного обучения. Хинтон, в частности, в своей работе делает многочисленные ссылки на труды Колмогорова и Арнольда. Все, что произошло и происходит сейчас с нейронными сетями, основано на их математических достижениях.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Последнее в категории