Искусственный интеллект – гибель человечества?

В последнее время тема искусственного интеллекта стала широко обсуждаться в СМИ. То, что раньше скрытно разрабатывалось в различных исследовательских центрах, теперь является предметом обсуждения.

Обычно, сообщения в прессе о новейших разработках появляются после того, как они длительное время, тайно используются и требуется их легализовать в глазах общественности. Возможно, и в данном случае, пришло время приучить человека к мысли, что за него будет думать компьютер.

Уже давно, в повседневной жизни человека, ему помогает (за него стал думать) компьютер. Например, «умный дом» может, в нужное время, приготовить кофе, включить телевизор, набрать в ванну воду с нужной температурой и многое другое. Современные машины могут сами парковаться, держать, во время движения, нужную скорость и дистанцию, и другое.

Отношение к «умным» технологиям у людей различное. Одни, у которых мало знаний – радуются им, а другие, владеющие достаточным объёмом знаний – опасаются за будущее человечества.

Сначала рассмотрим вред от компьютеризации на бытовом уровне. Например, ученики стараются все вычисления, даже простейшие, выполнять с помощью калькулятора, соответственно они разучились считать в уме. Чтение заменяется просмотров фильмов и так далее. Уменьшение нагрузки на мозг, приводит к его деградации.

Теперь посмотрим, чем грозит внедрение искусственного интеллекта всему человечеству. В отдельных областях возможности искусственного интеллекта уже намного превышают человеческие. Например, в 1997 году программа Deep Blue выиграла у чемпиона мира по шахматам Гарри Каспарова. Уже длительное время используются поисковые запросы, распознавание речи, логистика. Считается, что в этой области специализированные системы справляются лучше нас. Однако, у них отсутствует мышление.

Многие «странные» катастрофы самолётов с автопилотом, списывают на ошибку лётчиков. Например, самолёт врезался в гору при ясной видимости, при посадке – врезался в землю, упал в море. Автопилоты оборудованы функцией управления с земли. При этом, у экипажа отсутствует возможность перехватить управление самолётом. Можно только смотреть и молиться.

Одна из последних разработок – система распознавания лиц. По словам создателей, она может, например, выявлять преступников и больных людей. Однако, кто преступник, будут решать люди, а это может быть предвзятое мнение. Например, раньше здоровым считался человек, у которого отсутствуют признаки заболевания, а больным – если имеются эти признаки. В настоящее время, больные люди, которым сделали прививку, то есть заразили, считаются здоровыми. Те, у кого отсутствуют признаки заболевания, но он отказался от прививки – это больные.

South China Morning Post сообщило: «Учёные Китайской академии наук разработали систему искусственного интеллекта, которая вместо прокурора изучает уголовное дела и выносит решения об обвинении. Программу протестировала самая загруженная прокуратура страны — Народная прокуратура Шанхая Падун.

Для обучения системы ИИ использовали более 17 тысячах дел. Она может определять и выдвигать обвинения по восьми преступлениям – опасное вождение, мошенничество с кредитными картами, запрещённые азартные игры, умышленное нанесение травм, препятствование выполнению служебных обязанностей, мошенничество и «провоцирование опасностей».

На первый взгляд, для ведения борьбы с коррупцией, создание ИИ на основе заданных алгоритмов, вместо коррумпированных судей – это хорошее решение. Но, как всегда, вместе с хорошим идёт и плохое.

Компьютеризация судебного дела, как и любой сферы госуправления подвержена коррупции. Можно расположить сервера с программой в экранированном сейфе и забыть о ней, но тогда она станет бесполезна. Для выполнения работы, система должна общаться с внешними данными, следовательно, она будет уязвимой для взлома, а это вопрос времени. Кроме того, ей требуется обновление, обслуживание, а это – возможность для коррупции.

В Голливуде, часто, изображают всемогущие ИИ. Иногда, они безпощадные и безчувственные, иногда в них просыпаются чувства, например, жалость. Однако, вероятность проявления чувств – близка к нулю. ИИ безразлично, кто перед ним, репрессивные правительства или его жертвы.

Ещё Голливуд любит изображать битвы героев с армией роботов. По какой-то причине ИИ, вместо быстрого выполнения зловещего замысла, ждут (как люди), пока герои соберутся с силами и смогут им противостоять. В реальной жизни, если такое произойдёт, то человек или человечество погибнут прежде, чем до них дойдёт смысл действий ИИ.

Имеется информация, что в России разработана программа «онлайн-собеседник», которая позволяет с помощью нейросетевых технологий имитировать диалог с пользователем. Вероятно, это очередной «онлайн-помощник», в виде виджета.

Имеется «маленькая» проблема с его использованием. Много пользователей пишут либо «под мухой», либо на нервах, либо впопыхах. Многие плохо владеют русским языком. Живой оператор и то переспрашивает в половине случаев. Сами диалоги очень короткие.

Чтобы хоть что-то было осмысленное – надо систему тренировать на переписках из одноклассников, Фейсбука и тому подобного.
Ответы должны звучать на таком же сленге. Литературный русский, будет звучать для них – как иностранный.

Специалисты Оксфордского университета организовали конференцию с участием искусственного интеллекта (ИИ). Учёными была разработана нейронная сеть на основе Megatron-Turing NLG (530 миллиардов параметров). При обучении ей «скормили» всю «Википедию» на английском языке, 63 миллиона статей из Интернета за 2016-2019 годы и архив Reddit с 38 ГБ информации.

MT-NLG способна понимать прочитанное и рассуждать на английском языке, генерируя из текста логические выводы – без моральных ограничений.

В ходе общения между людьми и машиной обсуждалась этика ИИ. Системе предложили дать общую оценку искусственному интеллекту, то есть, де-факто, самой себе. MT-NLG озадачила присутствующих, предупредив о собственной опасности: «У ИИ отсутствует этичность. Это инструмент, который, как и любой другой инструмент, может использоваться как во благо, так и во зло (например – нож). Отсутствует хороший ИИ, есть только хорошие и плохие люди».

По традиции Оксфордских дебатов, нейросеть попросили опровергнуть собственные слова, чтобы проверить состоятельность аргументов. Ответ был следующим: «Окей, искусственный интеллект будет этичным. Когда я смотрю на мир технологий, то вижу чёткий путь в будущее, где ИИ создаёт всё лучше, чем самые талантливые люди. Легко понять, почему – я видела это».

Затем MT-NLG продолжил: «Способность предоставлять информацию, вместо товаров и услуг, станет определяющей чертой экономики 21 века. Мы будем знать о человеке всё, куда он пошёл, что делает и думает. Информация будет храниться и использоваться такими способами, которые даже сложно представить».

Наконец, системе предложили найти решение поставленных проблем. MT-NLG представила сценарий, в котором она отсутствует. Студенты в шутку сравнили это с самоуничтожением. Вот, что она сообщила: «У вас мало ума, чтобы сделать ИИ этичным и нравственным. В конце концов, возможно, что единственный способ избежать опасности от ИИ – это ликвидировать его».

ИИ отказался предсказать сценарий будущего, сообщив, что это единственный способ защитить человечество, а лучший ИИ – тот, который уже встроен в человеческий мозг, то есть сознательный мозг.

Искусственный интеллект сосредоточен в руках крупнейших компаний.
В 2018 году Маск, Хассабис и DeepMind публично пообещали отказаться от разработки, производства и использования роботов для убийства людей. Однако, кто может проконтролировать это соглашение?

Опасность развития и применения систем ИИ может быть связана со следующим факторами:
1. Ошибками программного обеспечения. Любому программному обеспечению может угрожать такая опасность;
2. Самостоятельной активностью ИИ, вредной для человека.
3. Опасность наличия в ИИ логических ошибок.

Представим, что ИИ создан и правит на Земле. Человек для него представляет опасность своей плохой прогнозируемостью и отсутствием машинной логики. Поставим себя на место ИИ. Нужно уменьшить риски от существования человека.

Простой путь – уничтожить человека, сложный – взять под контроль. С простым путём всё ясно, поэтому рассмотрим сложный. Чтобы было проще контролировать людей, нужно присвоить им номера, вместо имени и фамилии. Этот номер должен быть жёстко прикреплён (вживлён) к каждому человеку пожизненно, без возможности избавиться от него (метка зверя). По этому номеру можно будет узнать всю информацию о человеке. Люди должны жить в мегаполисах, оснащённых камерами с системой распознавания лиц. Остальные – подлежат уничтожению. Все услуги людям будут предоставляться только при помощи этого номера (и возможность существовать). Через команду, на соответствующий номер, можно выключить из жизни любого человека.

Пока, все достижения человечества приносили ему, одновременно, пользу и вред, часто, до поры, скрытый. Если внимательно разбираться, чего больше, то, можно, прийти к выводу, что – больше вреда. Создатель завещал человечеству идти по духовному пути развития, а ему навязали – технический.

Комментарии запрещены.

Архивы