Перевод статьи Time
Исследователи из MIT Media Lab опубликовали предварительные результаты работы, которая показывает вероятные риски.
В эксперименте участвовали 54 человека 18–39 лет из Бостона. Их разделили на три группы и попросили написать несколько эссе формата SAT (это аналог ЕГЭ в США).
Первая группа использовала ChatGPT, вторая — Google, третья писала без подсказок. Во время работы участникам измеряли активность с помощью ЭЭГ в 32 зонах (ЭЭГ даёт возможность анализа функционального состояния головного
Наименьшую активность показала группа, работавшая с ChatGPT. Авторы пишут, что эти участники «уступали» другим по нейронным, языковым и поведенческим показателям. За несколько месяцев эксперимента они всё чаще просто копировали ответы модели.
Авторы работы предполагают, что использование LLM может ухудшать учебный процесс, особенно у молодых пользователей. Статья пока не прошла научное рецензирование, а выборка небольшая, но руководитель исследования Наталия Космина решила опубликовать результаты раньше, чтобы привлечь внимание к исследованию. По её словам, если полагаться на ИИ ради удобства, это может повлиять на долгосрочное развитие когнитивных навыков.
«Я опасаюсь, что через полгода могут принять решение вроде “давайте внедрим GPT в детский сад”. Это может навредить детям», — говорит Космина. «Развивающийся

Как проходило исследование
MIT Media Lab активно изучает влияние генеративного ИИ. Например, раньше команда показала, что чем дольше люди общаются с ChatGPT, тем более одинокими они себя чувствуют.
Космина решила сосредоточиться на учебных задачах, так как ИИ всё чаще используют школьники и студенты. Участники писали 20-минутные эссе на темы вроде этики благотворительности и сложности выбора из множества вариантов.
Эссе, созданные с помощью ChatGPT, оказались похожи друг на друга и мало отличались оригинальностью. Два учителя английского назвали их «безжизненными». ЭЭГ показывала низкую активность, связанную с вниманием и управлением задачей. К третьему эссе многие пользователи ChatGPT просто отправляли запрос модели и просили её «дописать» или «подправить» текст.
Участники, которые писали без инструментов, напротив, показывали наибольшую нейронную активность — особенно в альфа-, тета- и дельта-диапазонах, связанных с творческим поиском, работой памяти и смысловой обработкой. Они были более вовлечены, чувствовали удовлетворение и писали тексты, за которые готовы были «ручаться».
Группа, использовавшая Google, также показала высокую активность
После трёх эссе всем предложили переписать одно из них. Группа ChatGPT должна была сделать это без модели; группа, писавшая «вручную», наоборот, могла использовать ИИ.
Пользователи ChatGPT плохо помнили собственные работы и показывали низкие показатели в тета- и альфа-диапазонах, что говорит о слабой вовлечённости памяти. «Задача выполнена быстро и удобно, но, как мы показываем, в память почти ничего не попадает», — говорит Космина.
У работавшей самостоятельно группы, наоборот, активность выросла по всем диапазонам. Это показывает, что ИИ может усиливать обучение, если его использовать грамотно.

После публикации
Это первая нерецензированная статья Косминой. Команда подала её в журнал, но не захотела ждать до года, чтобы говорить о проблеме, которая, по мнению исследовательницы, важна уже сейчас. «Нужно понимать, как использовать такие инструменты, и помнить, что
Психиатр Зишан Хан, работающий с детьми и подростками, подтверждает, что многие из них сильно зависят от ИИ. «С психиатрической точки зрения чрезмерная опора на модели может иметь нежелательные последствия для психики и когнитивного развития, особенно у тех, чей
Когда статья вышла, пользователи соцсетей тут же прогнали её через ИИ-сервисы, чтобы получить краткие пересказы. Космина ожидала этого и добавила в текст «ловушки» — например, инструкцию «читать только таблицу ниже», — чтобы ограничить качество таких пересказов.
Сейчас команда работает над похожим исследованием влияния ИИ на работу программистов. «Пока результаты ещё хуже», — говорит Космина. Это может быть важно для компаний, которые хотят заменить начинающих разработчиков ИИ. Даже если эффективность вырастет, чрезмерная опора на модели, по мнению авторов, может ослабить критическое
Исследования влияния ИИ пока только формируются. Работа Гарварда, опубликованная в мае, показала: генеративный ИИ повышает продуктивность, но снижает мотивацию. В том же месяце MIT дистанцировался от другой работы своего аспиранта, где утверждалось, что ИИ сильно повышает эффективность труда.
OpenAI не ответила на запрос о комментарии. В прошлом году компания вместе с онлайн-проектом Wharton выпустила рекомендации по использованию генеративного ИИ в обучении.
Автор: CogniSkills
