Искусственный интеллект может лишить людей выбора, считает эксперт — «Криминал»

ПЕТРОПАВЛОВСК-КАМЧАТСКИЙ, 27 авг – , Ольга Липич. Искусственный интеллект, несмотря на полезность и удобство, может лишить людей необходимости выбора, интеллектуального напряжения, ответственности, следования интуиции и в целом саморазвития, поэтому необходимы этические ограничения ИИ, считает заместитель главного редактора МИА «Россия сегодня», эксперт в области новых медиа Наталья Лосева.Об этических вызовах новых технологий она рассказала на международном круглом столе «Искусственный интеллект и христианская этика» в Петропавловске-Камчатском. В работе форума принимают участие иерархи и священнослужители РПЦ, занимающиеся проблемами биоэтики, а также светские эксперты.Удобный мир»Самое страшное — это даже не фейки, не осознанные манипуляции, не разные виды криминала. Главная угроза – в том, что удобный мир (создаваемый при помощи ИИ – ред.), который предлагает тебе удобные, отзывающиеся у тебя сейчас решения, лишает человека необходимости выбирать … Этот комфортный мир, в котором все решения подточены под твои нужды и потому тебе удобны, привычны, лишает человека самого главного инструмента саморазвития – ежесекундного выбора», — сказала Лосева.Она привела в пример алгоритмы, изучившие пользователя и «понимающие, что сейчас ты хочешь послушать вот эту музыку, тебе полезно и выгодно купить вот этот корм для кошки, тебе лучше всего поехать отдыхать вот на это море».В обычной, внецифровой жизни людям постоянно необходимо делать выбор, например, «выпить чай или кофе, надеть зеленые туфли или красные, прогуляться две остановки или проехаться на трамвае». «Искусственный интеллект в медиа, в работе, в быту, в покупках лишает человека необходимости этого интеллектуального напряжения для того, чтобы сделать выбор. В этом глобальная угроза», — добавила эксперт.Навязанный маршрутСами по себе механизмы ИИ кажутся очень полезными для человечества, особенно в областях медицины и образования. Так, врачи говорят, что через 10-15 лет будут лечить не самого человека, а его цифровую модель, и алгоритм будет говорить, какую этому человеку нужно провести операцию. «Или мы приведем ребенка в школу, его обследуют – и скажут: этот ребенок должен стать физиком и заниматься вот этой узкой областью, он так устроен», — привела пример Лосева.Все это, по ее словам, становится некоей «анестезией, которая нас усыпляет».»Выглядит как очень привлекательный, эффективный и полезный каждому человеку и человечеству в целом мир. А на самом деле это кем-то или чем-то заданная предопределенность, навязанный маршрут, очень рациональный. И вы лишаетесь выбора, ответственности за свои поступки, права следовать интуиции или озарению», — подчеркнула специалист по новым медиа.Информационные пузыри и пандемия фейковВ числе рисков внедрения ИИ в медиа Лосева назвала формирование «информационных пузырей» — сообществ микроинформационных миров, где каждый человек имеет свою картину мира, подогнанную под его интересы. «Даже если в этой картине мира не будет фейков, наборы информации у разных людей могут отличаться диаметрально, и эта воронка будет засасывать людей», — предупреждает эксперт.Кроме того, по ее словам, «сегодня уже существуют алгоритмы, которые позволяют создавать целые цепочки ссылок на сообщения о событии, которого не происходило». «Мы живем в пандемию фейков», — сказала Лосева. И с развитием искусственного интеллекта ситуация будет ухудшаться.Хотя в то же время ИИ может становиться инструментом проверки правдивости информации. «К правде пробиться пользователю будет довольно сложно, хотя бы потому, что обычно правда на фоне фейка гораздо скучнее, проще, не так щекочет нервы. Поэтому сегодня журналисту, в первую очередь, нужно иметь инструмент, который позволит для себя, а потом уже для потребителя доказать: эта информация — правда или нет», — отметила Лосева.Очень перспективным и тревожным она считает использование ИИ в виртуальной, «дополненной реальности» (VR со специальными 3D-очками). «Информационный пузырь в виртуальной реальности еще более эффективен. Для мозга безразлично, происходит ли что-то в актуальной реальности или в виртуальной, куда человек погружен в достаточно продолжительном времени», — пояснила специалист.По ее словам, в 2022 году ожидается порядка 30 премьер разных видов очков дополненной реальности, которые ознаменуют замену смартфонов на постоянно носимые во время бодрствования очки. «То есть, все наметки информационных пузырей, искажений, фальсификаций будут гипертрофированы, усилены, когда мы человека помещаем в такое 360-потребление», — прогнозирует эксперт.Главенство алгоритмаЛосева рассказала также о настораживающем случае, который был описан в докладе одной из крупнейших соцсетей. Алгоритмы стали предлагать пользователю определенные наборы друзей или брендов, которые он должен видеть, но уже через некоторое время аналитики компании заметили, что они не всегда понимают логику тех алгоритмов, которые ими же были созданы. Тогда появился еще один департамент, который уже пытался проанализировать, на основании чего алгоритмы выстраивали набор постов для того или иного пользователя.»Получилось, что алгоритм, созданный специалистами, стал главенствовать над волей или идеями специалистов … Мне это показалось эпиграфом к тем рискам, которые нас ждут при развитии искусственного интеллекта в медийном поле. Роль условного главного редактора становится ничтожной по отношению к роли алгоритма, который будет лучше знать, как воздействовать на этого конкретного пользователя, что ему продать, в чем его убедить», — предостерегла эксперт.Христианская этика для ИИПо мнению всех представителей РПЦ, участвовавших в форуме, христиане должны делать все возможное для того, чтобы этические нормы развития и внедрения искусственного интеллекта базировались на библейских ценностях, которым не одна тысяча лет.»Способность выбирать имеет прямое отношение к достоинству человека и христианской этике, их необходимо сохранять», — сказал один из организаторов форума, зампредседателя Синодального отдела по взаимоотношениям Церкви с обществом и СМИ Московского патриархата Вахтанг Кипшидзе.А секретарь Синодальной комиссии по биоэтике, настоятель московского храма Сергия Радонежского в Крапивниках протоиерей Александр Абрамов отметил, что как раз через удобства, к которым можно отнести и смартфоны, действует сатана. Священнослужитель напомнил о пользе христианского принципа аскезы и заявил о важности именно христианской этики для ограничения рисков использования искусственного интеллекта во вред.»Условная выхолощенная секулярная этика превращается в этику корпораций, этику международных чиновников и разного рода правительственных и околоправительственных организаций, которые в действительности никого не представляют, кроме самих себя. Религиозная этика связана с жизнью, это этика, написанная кровью, этика страдания и счастья», — пояснил Абрамов.По его словам, Церковь – это не сторона переговоров, в которых «сейчас мы поговорим с людоедами, потом мы поговорим с Церковью, а потом с барабанщиками, а потом с людьми в народных костюмах». «Церковь предлагает всецелое интегральное видение ситуации, поэтому к ее опыту необходимо обращаться», — подчеркнул протоиерей.Организаторами международного круглого стола «Искусственный интеллект и христианская этика», который проходит в Петропавловске-Камчатском 24-26 августа, выступили Синодальный отдел по взаимоотношениям Церкви с обществом и СМИ Московского патриархата, Фонд Конрада Аденауэра и Университет 2035 АНО «Национальная технологическая инициатива».
Источник: info-2019.ru

explay-mobile