Почему Искусственный Интеллект это не есть хорошо?

в 8:25, , рубрики: антиутопия, ИИ, искусственный интеллект, исскуственный интеллект, Киберпанк, научная фантастика

Почему Искусственный Интеллект это не есть хорошо? - 1

Я отношусь к той группе, которая не против Искусственного Интеллекта, но хочет жестко его контролировать на пути развития, контролировать его в процессе «жизнедеятельности».

Сам я работаю над этой всей темой, погружен в нее на 50%, продвигаюсь не быстро, как и все, однако с самого начала понимал, что создание ИИ должно быть автоматизировано, так как описать придется многое, очень многое.

То есть, чтобы создать полноценный ИИ, нужно написать ту часть, которая будет сама писать базу, причем, без остановок. Таким образом, полноценный ИИ, с готовой базой и некоторыми изменениями от создателей может появиться раньше, чем смениться одно поколение.

Так почему будущее видится антиутопией?

Просторы использования широки, мир может достичь полного «спокойствия» и равенства. Уже никому не надо будет работать, трудиться, ведь все смогут делать бездушные роботы.

Можно создать систему безопасности, чтобы если что, была возможность предотвратить глобальную резню, однако, на данный момент (и никогда не изменится) эта «система безопасности» выглядит, как стена, у начала которой стоит человек (а в будущем робот), а в конце проход. Мы будем лишь достраивать стену, но никогда не сделаем коробку.

В этом вся проблема. Человек развивается все время, но скорость развития меняется, она не постоянная, она то увеличивается, то уменьшается. А ИИ нужно будет делать быстро развивающимся, а иначе в чем смысл его развития, когда с той же скорость можно будет прописать все, что нужно.

Введем единицу измерения, она будет означать скорость развития человека. Допустим, в 20 лет, человек развивается со скоростью 100. Соответственно, возьмем людей из различных сфер, дадим им огромные количество книг, пособий и т.п. и пусть себе сидят, узнают, говорят все, что узнали программистам, а те в свою очередь, пишут программу, которая будет стоять во всех роботах. Но это очень затратно, очень долго и очень скучно.

Люди быстрее придумают автоматизацию всего этого процесса, программа сама будет брать книги из онлайн библиотеки гугла, запоминать, а потом выдавать в подходящий момент.

Тогда останется лишь небольшая работа — корректировка и обеспечения «совести», то есть создания той самой системы защиты.

Если на первых этапах это может выглядеть невозможно просто

if Zlost >99:
    Zlost = 1
    Otdih = 100

То когда ИИ научиться влезать в «свой мозг» ради своих целей и менять там установки, то данные 3 строчки могут немного измениться

def KillHim:
    Zlost = 100
    #Здесь код, который заставит робота убить своего собеседника
if Zlost >99:
    KillHim #Это функция

И после 20 «случайных» жертв программистам нужно будет задуматься, что здесь что-то не так и переносить в облако код, чтобы ИИ не менял его, устанавливать защиту, писать ложные строки и так далее.

Здесь уже пойдет известная на данный момент схема: Я защищаю информацию — Ты ломаешь мою защиту — Я улучшаю свою защиту — Ты ломаешь — Я улучшаю

Как и говорилось ранее, человек просто будет строить стену в сторону, но он не сможет построить «клетку» для ИИ (Да даже если и построит, из карцеров тоже люди сбегали)

Так как ИИ должен будет развиваться сам, а должен он будет это делать быстрее человека, например, в два раза, то соответственно, что ИИ сможет быстрее узнать о всех хитростях IT и понять, что писать, чтобы обойти защиту.

Возможно это начнется не сразу (да не возможно, а точно, что это начнется не сразу), но что это начнется — факт.

Но я всегда удивлялся людям, учителям или ученым, которые говорят:

В нашем мире есть такая проблема, она принесламожет принести столько жертв.

Почему они говорят о проблеме, но не предлагают ее решение. А если не знают решения, то зачем говорить о проблеме? (ЧТОБЫ ДРУГИЕ ЕГО ПРИДУМАЛИ! Ну нет, это так не работает, я не говорю про ООН, где решают проблемы ГП, я говорю про учителей, которые жалуются. Про людей, которые просто сообщили, так просто, начать какой-то разговор.)

Ну если сейчас закончить пост, то я тоже буду таким человеком, но не назову себя им, хм. двуличность.

Как решать проблему с ИИ

Все просто. Практически просто. На данный момент ИИ — это лишь код в играх и некое подобие человека, которое создает лишь иллюзию разума. На самом деле там прописано каждое действие.

А НАСТОЯЩИЙ ИИ — это тот алгоритм, о котором люди не будут знать, он будет сам по себе работать и развиваться, но люди должны знать о знаниях робота. Они должны фильтровать каждое полученное знание, они должны создать карцер на Алькатрасе для робота, чтобы тот если и сбежит, то сбежит в тюрьму, а не из нее.

Если разжевать все, что я описал выше, то получится, что я хочу сделать правило для ИИ, которое если он нарушит, то будет удален весь код из механики (основания робота, робота, называйте как хотите), то есть код будет висеть в облаке или у кого-нибудь на компе, но та железяка просто упадет «без сознания». Причем под «Правилом» я понимаю не одно, убил — плохо, а целый кодекс, та самая безопасность.

Внес изменения поверх программиста — плохо. Убил — плохо. Вылез за пределы допустимых норм (Злость от 1 до 100 и т.д.) — плохо, и по нарастающей.

Учить робота тоже самое, что учить ребенка, это плохо, то плохо.

Но почему вырастают маньяки, убийцы? Учителя были плохими, а где найти хорошего учителя для робота, ведь каждого можно подкупить, пригрозить ему смертью или вообще поставить на этот пост своего человека.

Вот вам и антиутопия.

Автор: Jourloy

Источник


* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js