Генеративный ИИ в науке: добро или зло
В Школе коммуникаций НИУ ВШЭ прошёл мастер-класс «Как генеративный ИИ трансформирует научную коммуникацию», посвященный одному из самых острых и актуальных вопросов современной академической среды. На мероприятии, обсуждали роль и риски внедрения ИИ-сервисов в научную деятельность.

Ведущей выступила Ольга Витальевна Дехнич, кандидат филологических наук, главный редактор журнала «Научный результат. Вопросы теоретической и прикладной лингвистики» (входит в Белый список, Scopus Q1, список журналов НИУ ВШЭ), практикующий специалист с глубоким пониманием процессов использования ИИ.
Беседа началась с фундаментального вопроса: «Искусственный интеллект – это добро или зло для науки?». Ольга Витальевна обозначила свою позицию: «Если использовать ИИ грамотно и этично – добро. Наша задача – разобраться, где это может быть добрым и полезным».
Спикер привела большое количество кейсов, когда авторы статей злоупотребляют использованием ИИ-сервисов. Вот некоторые из случаев, которые стали особо критичными:
200 статей было ретрагированно издательством Springer Nature из-за неэтичного использования ИИ
Исследование Гарварда обнаружило в Google Scholar множество статей, сфабрикованных нейросетью
Исследователь Гийом Кабанак обратил внимание на появление одинаковых фраз, явно не использованных учеными, в некоторых рецензируемых журналах. Позже он даже создал сайт для отслеживания этой проблемы
Были выделены три отрасли-лидера в науке по злоупотреблениям нейросетями: экология, медицина и компьютерные науки.
Ольга Витальевна подчеркнула, что использование ИИ в науке – это давно появившаяся тенденция. Инструменты ИИ давно применяются в академической среде, однако про это не говорили широко до появления продуктов, подобных ChatGPT, в 2022 году, когда технологии генеративного ИИ вышли на массовый рынок. Целью ИИ является облегчить рутину научных авторов, освободить время, в которое можно сконцентрироваться на концептуальной работе.
Особый акцент спикер сделала на прозрачности.
«Этика на первом месте. Конечно, мы говорим о прозрачности: если ты использовал генеративный ИИ, опиши, как и для чего ты его использовал», - сообщает Ольга Витальевна.
Спикер показала примеры грамотных деклараций от авторов, которые использовали ИИ для улучшения языка или обработки данных, четко указывая сервисы и степень их вовлеченности. Такой подход был обозначен этичным и правильным.
В конце дискуссии Ольга Витальевна ответила на вопросы аудитории, затронув тему изменения роли редакторов в научных журналах. Все больше времени уходит не на анализ содержания статьи, а на верификацию данных, что превращает редакторскую деятельность в «судебное разбирательство на бытовом уровне». Однако, по словам спикера, каждый редактор исходит из презумпции невиновности автора, а необходимость проверки содержания статьи была всегда.
Навык верификации актуален не только для редакторов, но и для преподавателей ВУЗов.
«Страшно, что студент не может оценить качество ответа нейросети. Если преподаватель не даёт оценку использования ИИ, тогда работа студента бессмысленна», - обозначила Ольга Витальевна.
Таким образом, в процессе мастер-класса была выведена мысль о том, что ключевой задачей любого человека при работе с ИИ становится верификация полученных данных. Генеративный ИИ может использоваться для анализа предметного поля и создания «ландшафта» темы, составления дизайна исследования и анализа данных. Категорически запрещено использовать генеративную сеть для создания текстов и симуляции данных.
Автор текста: Софья Крюкова
