Группа исследователей из Колумбийского университета, IBM Research и научно-исследовательского центра Feinstein Institutes for Medical Research провела уникальное сравнение: как искусственный интеллект и человеческий преобразуют звуковые сигналы. Для этого они сопоставили внутренние состояния рекуррентных нейросетей (RNN), обученных распознаванию речи, с активностью
Во время эксперимента пациенты слушали 30 минут рассказов, а нейросеть обрабатывала те же аудиозаписи. Учёные анализировали, как на каждом этапе — от простых акустических признаков до сложных смысловых конструкций — меняется активность
Важный результат: по мере продвижения по слоям RNN информация топографически соответствует иерархии обработки в коре человека — от первичной слуховой зоны к областям, отвечающим за понимание языка. Это говорит о том, что эволюция и оптимизация ИИ независимо пришли к схожему, эффективному решению задачи «звук — смысл».
Авторы подчёркивают: их RNN обрабатывала речь поэтапно, как
Исследование открывает новые перспективы: теперь ИИ можно использовать как «прозрачную модель» для изучения принципов работы
В будущем учёные планируют выяснить, как

