МОСКВА, 7 авг. Модель авторства текстов, которая четко определяет вклад в работу искусственного интеллекта, предложили ученые Самарского университета. Результаты опубликованы в журнале «Семиотические исследования».
Активное внедрение нейросетей в научную деятельность ставит вопрос о том, можно ли признавать системы искусственного интеллекта полноценными соавторами публикаций. Как рассказали социологи Самарского национального исследовательского университета имени академика С.П. Королева, в мировой практике уже встречаются случаи, когда искусственный интеллект (ИИ) указывают в числе авторов научных статей, а в некоторых ситуациях и как единственного создателя работы.
Специалисты вуза проанализировали сам процесс создания текстов с использованием ИИ, а также рассмотрели подобные практики в международных базах данных Web of Science и Scopus. В результате были обнаружены четыре статьи, где ChatGPT указан как автор, включая два случая, когда было указано его единоличное авторство. По их словам, в базе Scopus есть как минимум две публикации с ИИ-соавторством, причем в одном случае чат-бот был позднее исключен из списка авторов по требованию редакции журнала.
По словам ученых, полученные ими результаты показали, что традиционное понимание авторства в условиях генеративного ИИ требует пересмотра. Человек здесь выступает не только как творец, но и как куратор, редактор и интерпретатор.
«Мы пришли к выводу, что такие работы обладают гибридной природой. Этот подход открывает путь к новым моделям «распределенного» и «переплетенного» авторства, где ИИ становится участником творческого процесса, но конечная ответственность за содержание остается за «исследователем-человеком», — прокомментировала доцент кафедры социологии и культурологии Самарского университета Наталья Масленкова.
Особое внимание исследователи университета уделили этическим проблемам, связанным с использованием генеративного интеллекта для написания научных текстов. Известны риски академического «мошенничества», например, когда человек выдает содержание, полностью сгенерированное ИИ, за своё, не принимая на себя роль редактора и ответственного автора.
«Наши выводы могут лечь в основу этических и правовых норм, повышающих прозрачность использования ИИ и предотвращающих злоупотребления. Это особенно важно для образовательной, научной и медийной сфер, где возникает вопрос, кто несет ответственность за контент, созданный с участием ИИ», — рассказала Масленкова.
Как сообщили специалисты вуза, новизна выполненной ими работы заключается в том, что она не ограничивается лишь юридическим анализом, а использует комплексный подход, сочетающий философский, социокультурный и правовой анализ. Исследователи связывают современные практики работы с ИИ с теориями распределенного и сетевого авторства, что позволяет глубже понять трансформацию роли человека и машины в создании текстов.
«Одна из точек зрения приводит аргументы в пользу того, что ИИ — это «стохастический попугай», имитирующий человеческую речь на основе статистики. Его «субъектность» пока социальный конструкт, отражающий коллективный вклад разработчиков и пользователей», — прокомментировала Масленкова.
На данном этапе перед учеными стоит задача разработки рекомендаций по прозрачному и ответственному использованию генеративных моделей в образовании и научных публикациях, а также изучения того, как меняются представления об авторстве у разных социальных групп по мере распространения ИИ.