Интеллект человека веками преподносился как великая ценность, отделяющая нас от животных. Он был силой, ограниченной личными возможностями каждого. Но что, если мы никогда и не были умны? А виденье собственной исключительности прямо сейчас превращается в пыль, которую сдувают куллеры новых дата-центров. Стоит ли бояться Бога из Машины, и почему нет?
Рубрика «сверхинтеллект»
Нейропокалипсис отменяется. Почему угроза со стороны ИИ это коллективная иллюзия?
2026-02-28 в 8:53, admin, рубрики: бог из машины, интеллект, искусственный интеллект, искусственный общий интеллект, искусственный сверхинтеллект, нейронные сети, общий искусственный интеллект, сверхинтеллект, Сингулярность, трансгуманизмСильный ИИ как фантазия. Теорема Теслера
2025-09-29 в 9:01, admin, рубрики: AGI, gemini, Grok 5, ruvds_статьи, сверхинтеллект, сильный ИИ, Сингулярность, теорема Теслера, технический прогресс
В 1841 году Чарльз Маккей опубликовал сборник исторических очерков «Наиболее распространённые заблуждения и безумства толпы». Сборник претерпел десятки переизданий и издаётся до сих пор.
Ведущий разработчик ChatGPT и его новый проект — Безопасный Сверхинтеллект
2025-04-07 в 9:01, admin, рубрики: 10x engineer, alexnet, AlphaGo, chatgpt, CUDA, DNNResearch, few-shot learning, Google Brain, gpgpu, gpt, gpu, Ilya Sutskever, ImageNet, lenet, Nvidia GTX 580, OpenAI, ruvds_статьи, Safe Superintelligence, seq2seq, TensorFlow, word2vec, Алекс Крижевски, Джеффри Хинтон, илья суцкевер, Компьютерное зрение, машина Больцмана, неокогнитрон, сверхинтеллект, Томаш Миколов
Многие знают об Илье Суцкевере только то, что он выдающийся учёный и программист, родился в СССР, соосновал OpenAI и входит в число тех, кто в 2023 году изгнал из компании менеджера Сэма Альтмана. А когда того вернули, Суцкевер уволился по собственному желанию в новый стартап Safe Superintelligence («Безопасный Сверхинтеллект»).
Илья Суцкевер действительно организовал OpenAI вместе с Маском, Брокманом, Альтманом и другими единомышленниками, причём был главным техническим гением в компании. Ведущий учёный OpenAI сыграл ключевую роль в разработке ChatGPT и других продуктов. Сейчас Илье всего 38 лет — совсем немного для звезды мировой величины.Читать полностью »
Экзистенциальные угрозы AI. Что ждёт человечество, если появится искусственный сверхинтеллект
2025-01-31 в 15:00, admin, рубрики: AGI, AI, будущее, ИИ, сверхинтеллект, суперинтеллект, философия, Философия ИИ, философия сознания
Разбираемся в философии сознания и попутно отвечаем на вопросы — возможен ли сверхинтеллект, и насколько опасно развитие AI
Искусственный интеллект и экзистенциальный кризис
2024-08-19 в 8:12, admin, рубрики: искусственный интеллект, нейросети, превосходство, работа нейросетей, развитие интеллекта, сверхинтеллект, суперкомпьютерСуществует пласт опасений, что искусственный интеллект способен стать угрозой существования человечества. При этом речь идет как о сценариях уничтожения в «пепле ядерной войны», так и «серой ассимиляции», что показал фильм «Превосходство». Но, согласно с новым исследованием, большие языковые модели (LLM) могут только следовать инструкциям, не могут самостоятельно развивать новые навыки и по своей сути «контролируемы, предсказуемы и безопасны», что звучит как хорошая новость для нас, мешков с мясом.
Учёные доказали, что сдерживание сверхинтеллекта — невычислимая задача
2021-03-22 в 8:20, admin, рубрики: AI, Блог компании VDSina.ru, будущее здесь, вред человечеству, ИИ, искусственный интеллект, компьютерная симуляция, научная фантастика, Научно-популярное, обезьянья лапка, обучение, проблема вреда, проблема остановки, программирование этики, сверхинтеллект, Сверхразум, сдерживание ИИ, тезис Чёрча-Тьюринга, три закона робототехники
Обучение искусственного сверхинтеллекта
Идея сверхинтеллекта не даёт покоя учёным. Некоторые высказывают предположение, что сверхинтеллект не обязан благоприятно относиться к людям, может быть к ним равнодушен, не учитывать их интересы. Что делать в такой ситуации? Точнее, как её предотвратить?
Один из вариантов — контролировать действия сверхинтеллекта, разрешая только такие действия, которые идут на благо человечества. К сожалению, теперь выясняется, что это невозможно. Оказалось, что сдерживание сверхинтеллекта — невычислимая задача.
Читать полностью »
Сверхинтеллект: идея, не дающая покоя умным людям
2018-12-12 в 7:00, admin, рубрики: алармизм, иион, искусственный интеллект, киборги заполонили планету, научная фантастика, Научно-популярное, Ник Бостром, паника, сверхинтеллект, терминатор
Расшифровка выступления на конференции Web Camp Zagreb Мачея Цегловского, американского веб-разработчика, предпринимателя, докладчика и социального критика польского происхождения.
В 1945 году, когда американские физики готовились к испытанию атомной бомбы, кому-то пришло в голову спросить, не может ли такое испытание зажечь атмосферу.
Опасение было оправданным. Азот, из которого состоит большая часть атмосферы, энергетически нестабилен. Если столкнуть два атома достаточно сильно, они превратятся в атом магния, альфа-частицу и выпустят огромную энергию:
N14 + N14 ⇒ Mg24 + α + 17,7 МэВ
Жизненно важным вопросом было то, может ли эта реакция стать самоподдерживающейся. Температура внутри шара ядерного взрыва должна была превысить всё, что когда-то наблюдалось на Земле. Не получится ли, что мы бросим спичку в кучу сухих листьев?
Читать полностью »
Культ карго для ИИ: миф о сверхчеловеческом искусственном интеллекте
2017-05-19 в 10:34, admin, рубрики: будущее здесь, ии общего назначения, искусственный интеллект, сверхинтеллект, Сверхразум, слава роботам, метки: сверхразум
Я слышал, что в будущем компьютерные ИИ станут настолько умнее нас, что отнимут у нас все рабочие места и ресурсы, а люди вымрут. Так ли это?
Это самый частый вопрос, который мне задают на моих выступлениях по поводу ИИ. Задающие его люди искренне волнуются, и их беспокойство происходит от других людей – экспертов, задающихся тем же самым вопросом. Среди них можно встретить умнейших из живущих сегодня людей – это, к примеру, Стивен Хокинг, Илон Маск, Макс Тегмарк, Сэм Харрис и Билл Гейтс, – и все они верят в возможность такого сценария. На недавней конференции, посвящённой проблемам ИИ, комитет из девяти наиболее сведущих в области ИИ людей согласился, что скорого появления сверхчеловеческого ИИ нам не избежать.
Читать полностью »
