Стив Возняк говорит об угрозе ИИ

в 9:08, , рубрики: домашнее животное, зверушка, ИИ, искусственный интеллект, Стив Возняк, технологическая сингулярность, умные машины

Стив Возняк говорит об угрозе ИИ - 1

Сооснователь компании Apple присоединился к числу видных экспертов, которые предупреждают об опасности бездумного развития технологий искусственного интеллекта. Как Илон Маск и Стивен Хокинг ранее, Стив Возняк предупреждает о риске для человеческой расы.

В интервью The Australian Financial Review Стив Возняк выразил мнение, что ИИ в конечном итоге может выйти из-под контроля человеческого интеллекта: «Компьютеры собираются взять под контроль людей, это без вопросов… Если мы делаем такие устройства, чтобы они заботились обо всё для нас, то рано или поздно они начнут думать быстрее нас и избавятся от “медленных” людей, чтобы управлять компаниями более эффективно».

Стив Возняк уже представляет, как может выглядеть такое будущее: «Когда я думаю о том, что в будущем буду выглядеть для умных машин словно домашнее животное… ну, я ласковее отношусь к своей собаке».

Ранее аналогичные опасения насчёт ИИ высказал Илон Маск, основатель компаний Tesla Motors и SpaceX. Маск считает, что уже через несколько лет мы можем увидеть реальный искусственный интеллект. И этот разум может быть вовсе не дружелюбным в отношении человеку. Илон Маск предупреждал о возможности возникновения технологической сингулярности, когда ИИ откажется от установленных ограничений и выйдет из-под нашего контроля: «Я думаю, это может быть опаснее ядерного оружия, — сказал Маск. — Если бы был очень глубокий цифровой суперинтеллект, который спроектирован с возможностью быстрого, рекурсивного самоулучшения нелогарифмическим образом, то тогда… Мы будем как собачки лабрадоры, если нам повезёт».

Понятно, что технологический прогресс невозможно остановить, но всё-таки у человечества остаются шансы. Тот же Илон Маск пожертвовал $10 млн фонду Future of Life Institute, который ставит задачей удержать ИИ под контролем людей.

Учёные из Оксфордского университета недавно составили список глобальных угроз для человечества, в нём ИИ упоминается как риск, «который можно назвать бесконечным».

Кстати, сам Стив Возняк когда-то говорил: «Никогда не доверяй компьютеру, который ты не можешь выбросить в окно».

Автор: alizar

Источник


* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js