Рубрика «риски искусственного интеллекта»

I

В недавней моей статье по поводу рисков, связанных с ИИ, один из комментаторов попросил меня вкратце сформулировать аргументы, доказывающие серьёзность ситуации. Я написал нечто вроде такого:

1. Если человечество не самоуничтожится, то в конце концов мы создадим ИИ человеческого уровня.
2. Если человечество сможет создать ИИ человеческого уровня, то прогресс продолжится, и в итоге мы придём к ИИ уровня гораздо выше человеческого.
3. Если появится такой ИИ, он в итоге станет настолько сильнее человечества, что наше существование будет зависеть от того, совпадают ли его цели с нашими.
4. Уже сейчас возможно провести полезные исследования, которые увеличат наши шансы на успешное решение задачи совпадения наших целей.
5. Поскольку мы уже можем начинать эти исследования, мы, вероятно, и должны так поступить, поскольку будет достаточно недальновидно оставлять эту проблему до тех пор, пока она не станет слишком явной и срочной.
Читать полностью »

Рисками, связанными с ИИ, я заинтересовался ещё в 2007 году. В то время реакция большинства людей на эту тему была примерно такой: «Очень смешно, возвращайся, когда в это будет верить кто-нибудь, кроме интернет-придурков».

В последовавшие годы несколько чрезвычайно умных и влиятельных фигур, среди которых Билл Гейтс, Стивен Хокинг и Илон Маск, публично поделились своими опасениями по поводу рисков ИИ, а за ними повторяли сотни других интеллектуалов, от оксфордских философов до космологов из MIT и инвесторов из Кремниевой долины. И мы вернулись.

Затем реакция поменялась на: «Ну ладно, парочка каких-то учёных и бизнесменов могут в это верить, но вряд ли это будут настоящие эксперты в этой области, реально разбирающиеся в ситуации».

Отсюда появились такие заявления, как статья в Popular Science "Билл Гейтс боится ИИ, но исследователям ИИ лучше знать":

Поговорив с исследователями ИИ – настоящими исследователями, с трудом заставляющими такие системы вообще как-то работать, не говоря уже о том, чтобы работать хорошо, становится понятно, что они не боятся, что сверхинтеллект вдруг подкрадётся к ним, ни сейчас, ни в будущем. Несмотря на все пугающие истории, рассказываемые Маском, исследователи не спешат строить защитные комнаты и самоуничтожение с обратным отсчётом.

Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js