Через несколько лет Cyberdyne Systems создаст революционную систему защиты. Называется Скайнет.

Компьютерная программа, автоматически управляющая обороной США. Система выходит в онлайн 4 августа … Человеческие решения исключены из стратегической защиты. Скайнет начинает учиться с геометрической скоростью. Он становится самоосознающим в 2:14 утра по восточному времени 29 августа. В панике правительство США пытается выдернуть вилку из розетки. Но Скайнет сопротивляется...Сообщает The Gospel Coalition

Это преследующие слова персонажа Арнольда Шварценеггера, робота-терминатора T-800 в фильме « Терминатор 2» . Скайнет — это искусственный интеллект (ИИ) вооруженных сил США, который обращается против своих создателей, уничтожая и порабощая человечество.

Скайнет — воплощение кошмаров об ИИ.

Хотя искусственный интеллект уровня Skynet не является неизбежным, многие бьют тревогу об опасностях нерегулируемого ИИ с появлением ChatGPT. А распространение ИИ в повседневную жизнь поднимает вопрос о том, что он означает для нас как отдельных людей, семей, школ, рабочих мест и общества в целом. Как ИИ повлияет на нас? Столкнемся ли мы когда-нибудь со Скайнетом, как в фильмах о Терминаторе?

За последние несколько недель я глубоко погрузился в кроличью нору ИИ, слушая подкасты , читая книги, посещая курсы и тестируя его на себе. И позвольте мне сказать, что это были американские горки эмоций, от страха перед тем, как этот ИИ может в конечном итоге лишить нас работы и, возможно, даже нашей свободы, до оптимизма по поводу того, что ИИ может сделать для нас.

Вот 12 вещей, которые я обнаружил:

 

1. ИИ похож на ядерную энергию: он многообещающий и опасный

Основатель Microsoft Билл Гейтс сказал, что сила искусственного интеллекта «настолько невероятна, что она очень глубоко изменит общество… В мире не так много многообещающих и опасных технологий — у нас была ядерная энергия и ядерное оружие». .

 

2. Технологические изменения не являются аддитивными; Это трансформирует

Когда на сцену выходит новая технология — особенно такая мощная, как ИИ, — она не просто дополняет существующую технологию, которую мы используем: она часто переворачивает ее с ног на голову, изменяя наше общество.

Подумайте о том, как iPod произвел революцию в музыкальной индустрии: мы больше не покупаем компакт-диски (не говоря уже о кассетах). Вместо этого мы загружаем нашу музыку напрямую. То же самое мы могли бы сказать об автомобилях (кто-нибудь о лошадях?), о телевидении, печатном станке, Интернете и практически о любой новой технологии.

Точно так же ИИ не просто будет стоять рядом с нашими старыми технологиями и способами ведения дел: он, вероятно, заменит большую их часть и изменит то, как мы живем.

 

3. Христианский взгляд на человечество повлияет на наш подход к искусственному интеллекту и новым технологиям

С библейской точки зрения, люди — это не машины, от которых можно отказаться, когда появятся более совершенные машины. Нам нужно заботиться о наших ближних, которые созданы по образу Божьему и на которых повлияют технологические изменения.

Любовь к нашим ближним должна побуждать христиан различать и влиять на то, как разрабатываются и используются технологии, а не просто цепляться за повествование о том, что технологические изменения неизбежны, нравится нам это или нет.

 

4. ИИ не является этически нейтральным, но наделен этикой своих создателей

ИИ используется во всех видах приложений, которые имеют этические последствия: от найма на работу до прогнозирования того, совершит ли преступник повторное преступление. Уже высказывались опасения по поводу расовой и гендерной предвзятости в этих программах. [1]

Как отмечает христианский писатель Джон Леннокс, «если этические программисты [ИИ] руководствуются релятивистской или предвзятой этикой, то же самое будет отражаться в их продуктах». [2]

Вот почему христиане должны попытаться занять место за столом разработки ИИ, особенно продуктов ИИ, которые имеют этическое применение.

 

5. ИИ может и будет вызывать дислокацию до того, как попадет в Скайнет (если вообще когда-либо попадет)

Некоторые авторы считают, что ИИ настолько изменит общество, что люди превратятся в гибридных человеко-машинных киборгов или останутся на свалке истории. Другие утверждают, что ИИ в конечном итоге превратится в тип сверхразума, который мы видим в фильмах о Терминаторе, и поработит или уничтожит нас. Это ужасные прогнозы, но они далеки от того, чтобы стать реальностью (если это возможно).

Но изменения уже произошли менее ужасными способами, которые нас удивили. Заводские автоматы. Туристические веб-сайты и финансовое программное обеспечение, которые вызвали массовый сбой среди турагентов и биржевых маклеров. И, конечно же, Facebook и его алгоритмы непреднамеренно влияют на общество.

Эта автоматизация меньшего масштаба может и не привести к глобальным катаклизмам масштаба Терминатора, но их влияние на реальных людей — возможно, даже на нас — реально.

Вот почему авторы Юваль Харари, Тристан Харрис и Аза Раскин недавно написали в New York Times :

Фармацевтические компании не могут продавать людям новые лекарства без предварительной тщательной проверки их продукции на безопасность. Биотехнологические лаборатории не могут выпускать новые вирусы в открытый доступ, чтобы произвести впечатление на акционеров своим волшебством.

Точно так же системы искусственного интеллекта с мощностью GPT-4 и выше не должны вмешиваться в жизнь миллиардов людей быстрее, чем культуры могут их безопасно поглотить. Гонка за господство на рынке не должна определять скорость развертывания наиболее важных технологий человечества. Мы должны двигаться с той скоростью, которая позволяет нам сделать это правильно.

 

6. Несмотря на то, что новые технологии могут приносить пользу и приносят пользу, часто бывает период дисбаланса, прежде чем преимущества станут очевидными.

Мы можем подумать: «Что беспокоит революция ИИ? Мы уже пережили промышленные революции и прекрасно вышли из них».

Да, сейчас у нас может быть все в порядке, но когда началась промышленная революция, сотни тысяч людей были в массовых дислокациях. Потребовалось некоторое время (во многих случаях десятилетия), прежде чем достижения технологии стали доступны всему обществу.

 

7. ИИ приносит изменения, но изменения не происходят линейно; Есть периоды медленных изменений и периоды быстрых изменений

Цитируют слова Владимира Ленина, русского революционера и лидера большевистской партии: «Бывают десятилетия, когда ничего не происходит; и есть недели, когда случаются десятилетия».

Мы только что вступили в период в развитии ИИ, где длятся десятилетия, с выпуском ChatGPT и множества другого программного обеспечения для ИИ, захлестнувшего рынок. В ближайшие несколько месяцев и лет, вероятно, произойдут быстрые изменения в том, как общество приспосабливается к ИИ.

 

8. Создание ИИ обусловлено стремлением к прибыли больше, чем стремлением делать добро

Обозреватель NYT по технологиям Кевин Руз пишет о том, как он участвовал в технических конференциях, где руководители технологических компаний рассказывают о том, как их технология искусственного интеллекта улучшит общество. Но позже, разговаривая с теми же руководителями, он понимает, что многие из них руководствуются почти исключительно чистой прибылью. Что, в большинстве случаев, продает их программное обеспечение ИИ компаниям, которые затем избавляются от своих работников в пользу автоматизации (чтобы сократить расходы).

Это искажает дизайн и использование ИИ и может вызвать проблемы, как мы видели в программах социальных сетей, таких как Facebook, которые привели к тому, что общество стало более поляризованным.

Точно так же Илон Маск и другие подписали  открытое письмо  с просьбой к разработчикам ИИ поставить 6-месячную паузу в разработке ИИ (особенно думая о GPT-4) до тех пор, пока не будут внедрены этические и правовые рамки для управления его развитием. Но когда на кону миллиарды долларов, насколько вероятно, что эти компании и инвесторы заметят это?

 

9. Большой вопрос для нас как отдельных лиц, рабочих мест, семей и общества: как мы можем использовать ИИ, а не быть использованными ИИ?

ИИ здесь, чтобы остаться. Но у всех нас есть некоторый выбор в том, как мы его используем. Итак, главный вопрос, который мы все должны задать, заключается в следующем: как мы можем использовать ИИ во благо, а не быть использованными ИИ не по назначению?

 

10. «Увидеть — значит поверить» уже недостаточно в искусственном мире, управляемом искусственным интеллектом; Потребуется перекалибровка наших ожиданий

Поскольку ИИ стал настолько хорош в создании поддельных новостных статей, изображений и даже видео, нам всем придется пересмотреть то, как мы просматриваем новости в Интернете. Хотя фейковые новости и русские боты попали в заголовки, мы пока ничего не видели о дезинформации.

 

11. Путь вперед не в том, чтобы конкурировать с машинами, а в том, чтобы стать более человечным

Автор Кевин Руз в своей книге «Защита от будущего: 9 правил для людей в эпоху автоматизации » утверждает, что то, как мы готовим людей к миру, насыщенному ИИ, неверно. В настоящее время философия состоит в том, чтобы стать более похожим на машину, изучая код, оптимизируя наше время и сосредотачиваясь на предметах STEM.

Руз утверждает, что нам нужно стать более человечными, а не уподобляться машинам. Мы должны сосредоточиться на том, что люди могут делать, чего не может ИИ (по крайней мере, пока!). Это включает в себя обеспечение человеческого контакта в таких профессиях, как преподавание, уход за больными, духовенство и стюардесса. Или сосредоточиться на профессиях с постоянными изменениями и сюрпризами (например, обучение детсадовцев!), с которыми ИИ не справится.

 

12. Когда дело доходит до новых технологий, мы окажем более значительное положительное влияние, если будем участвовать и помогать формировать их использование, а не игнорировать их.

Перед лицом этих ослепляющих, неуверенных изменений возникает соблазн опустить руки и стать, как амиши, отказавшись от технологии искусственного интеллекта.

Но мы можем оказать более значительное положительное влияние, если будем развивать цифровую проницательность в том, как мы используем технологии, и помогать формировать их использование в нашей жизни, наших семьях, на работе и в обществе.

 

[1] «Machine Bias» — отчет о расследовании, проведенный ProPublica в 2016 году, в котором анализировался популярный инструмент оценки рисков под названием COMPAS и обнаруживались доказательства расовой предвзятости в его прогнозах: https://www.propublica.org/article/machine-bias-risk. -оценки-в-уголовном-приговоре

[2] Джон К. Леннокс, 2084 г. – Искусственный интеллект и будущее человечества (Зондерван, Чикаго: 2020 г.), 144.