Кабинет
Константин Фрумкин

Нужна ли этика искусственному интеллекту?

Тема этических проблем, возникающих при использовании искусственного интеллекта (ИИ), стала сегодня чрезвычайно модной в западных социальных науках. Этой теме посвящена обширная литература.

Почему?

Разумеется, первая часть ответа заключается в том, что информационные технологии (в том числе технологии ИИ) достигли высокого уровня развития и получили большее чем когда-либо влияние на самые разные стороны человеческой деятельности. Но почему в связи с этим так много говорят именно об этических, а не о политических или социальных проблемах новых технологий?

 


Новая тема прикладной этики

 


На первый взгляд, дело в том, что искусственный интеллект представляют как некую квазиличность, как искусственный разум, который, как и обычная человеческая личность, должен совершать моральные выборы. Но в реальных кейсах, которые обсуждаются в работах по этике ИИ, этой иллюзии нет.  И главная причина заключается в том, что в последние десятилетия на западе произошло довольно резкое расширение границ того, что называют этикой.

В социальных науках есть понятие «экономического империализма», то есть экспансии экономических (и прежде всего экономико-математических) научных методов в смежные области, например демографию или политологию. Аналогично можно говорить об «этическом империализме» — экспансии этики на темы и вопросы, для нее совершенно новые. Начиная со второй половины ХХ века этику на Западе, а вслед за Западом и в других концах Земли, пытаются приспособить для решения самых разных проблем — от экологии до политики, от медицины до правосудия, что выразилось в создании многочисленных этических комитетов и написании этических кодексов.

«Этический империализм» проявляется в том числе и в «экспансии» академической этики. Как известно, в узком смысле этикой называется занимающийся моралью раздел философии, в университетах существуют кафедры этики — и вот, начиная примерно с последней четверти ХХ века, на западе, прежде всего в США, профессора этики взялись заниматься самыми разнообразными вопросами повседневной жизни, берясь вырабатывать принципы этического регулирования самых разнообразных сфер — от медицины и до атомной энергетики. Это беспредельное расширение сферы действия научной этики получило наименование «прикладной этики».

Исходно приоритетной областью применения прикладной этики была медицина, и это не случайно: общим местом моральных принципов во все времена является защита жизни и достоинства индивида от агрессивных посягательств его «близких» — мораль есть прежде всего взаимное обязательство людей не посягать на жизнь и интересы друг друга. Между тем именно в медицине возникает постоянная, но при этом контролируемая обществом опасность для жизни, и, соответственно, встают вопросы, которые можно назвать моральными — в том смысле, что они затрагивают обязательства людей по сохранению жизни друг друга. Как написала в 1990-х годах ведущий отечественный специалист по западной прикладной этике Л. В. Коновалова, прикладная этика приходит туда, где возникает «опасность для жизни и страх смерти»[1].

Прикладная этика всегда чувствовала себя как рыба в воде в таких вопросах, как аборты, эвтаназия, отключение больных от аппаратов искусственного дыхания, финансовые ограничения на оказание медицинской помощи, медицинские и биологические эксперименты над живыми существами, сокрытие информации врачами от больных, смертная казнь, — везде, где в опасности оказывается человеческая жизнь и где встает вопрос, какие усилия обязательно предпринять для ее спасения. Поскольку человеческая жизнь имеет неопределенную и стремящуюся к бесконечности ценность, постольку связанные с ней вопросы часто уходят от чисто коммерческого, рутинного решения, связанного с обменом равных ценностей, и требуют именно этического регулирования.

Но этику пытаются прикладывать и к другим сферам цивилизации, прекрасным примером чего может служить книга американского философа Иена Барбура «Этика в век технологий»[2]. В ней говорится о возникающих моральных коллизиях в самых разных «отраслях народного хозяйства» — от производства продовольствия до энергетики, соответственно речь идет о необходимости спасения людей от голода, о том, что энергетика должна быть экологичной и быть ориентированной на устойчивое развитие, — короче говоря, о «борьбе за все хорошее и против всего плохого» во всех сегментах экономики и общественной жизни.

Сейчас же специалисты по этике с радостью набросились на тему искусственного интеллекта, которая потеснила медицину в роли главного объекта этического регулирования.

Однако действительно ли вопросы, которые поднимаются в связи с этим, являются в традиционном смысле этическими, и, с другой стороны, являются ли они действительно специфическими именно для искусственного интеллекта? Попробуем проанализировать это, опираясь на примеры этических проблем из книг американских авторов, в последние годы переведенных на русский язык. В качестве материала для нашего анализа возьмем три таких книги: «Новые законы робототехники» Фрэнка Паскуале, «Убийственные большие данные» Кэти О’Нил и коллективную монографию «Этика искусственного интеллекта»[3]..

 


Компьютеры учатся у людей

 


О многих, если не большинстве приводимых в этих книгах кейсах можно сказать, что применение ИИ не привносит в сложившееся положение вещей буквально ничего нового.

Вот ситуация, вызывающая беспокойство специалистов по машинной этике: если полиция будет руководствоваться полученной на основе анализа больших данных предикативной аналитикой, то она с большой вероятностью будет уделять большее внимание бедным районам города, где по предыдущему опыту совершается больше преступлений, а значит люди с меньшим доходом будут находиться под более пристальным наблюдением полиции и иметь больше шансов оказаться в тюрьме. Оставляя в стороне вопрос, насколько справедливо большее внимание полиции к плохим районам, зададим другой вопрос: какова же в данном случае особая роль ИИ, кроме той, что он более точно определит границы плохих районов? Люди и только люди приняли решение, что полицейские машины надо посылать туда, где обычно совершается больше преступлений. ИИ — правильно или неправильно, но на основе научно обоснованных методик указал им эти места. Во всем остальном ИИ будет точно не виноват. Полицейские аналитики могли бы — лучше или хуже — предсказать вероятные места совершения преступлений и не используя технологию больших данных.

Суть дела в том, что ИИ пока что служит решениям людей и является продолжением этих решений. Вот еще один интересный кейс: искусственный интеллект анализировал данные кандидатов на вакансии в крупной компании, ориентируясь на опыт выбора кандидатов, осуществленный менеджерами-людьми в прошлые годы. Такая система предполагала, что менеджеры в прошлом удачно выбирали достойных работников, а машине надо было лишь поучиться у них. Результат был предсказуем — а именно, искусственный интеллект стал воспроизводить особенности практики людей, включая ее недостатки. В частности, выяснилось, что в решениях ИИ просматривается дискриминация кандидатов-женщин; ИИ был не виноват: женщин дискриминировали менеджеры, которым компьютер лишь подражал.

Вопрос, который возникает в этой связи, заключается в том, имеем ли мы дело со специфической проблемой именно «этики ИИ»?

Очевидно, что проблема дискриминации женщин на рынке труда гораздо древнее, чем ИИ, древнее, чем самые примитивные компьютеры.

Также очевидно, что проблема, которая выявилась конкретно в этом кейсе, коренится не в компьютерных программах, а в человеческих практиках.

С другой стороны: несомненно, мы имеем дело с новым контекстом бытования старых проблем и новой формой их проявления. Новшество состоит в том, что дискриминация женщин в человеческих (не машинных) практиках оказывается зашифрована и законсервирована в данных, используемых для машинного обучения. В этом смысле тема этики искусственного интеллекта предстает перед нами как новый, актуальный повод обсуждать известные социальные и моральные проблемы. Кроме того, обсуждение этих старых проблем ведется в ситуации, когда информация и документы, ставшие источником проблем, предстают в форме особого кода, исправление которого требует профессиональных навыков. Когда дискриминация женщин зависит от законодательства — требуются консультации юристов, а когда источником проблем становятся не законы, а данные для машинного обучения — не обойтись без того, чтобы в моральные дискуссии привлечь специалистов по информационным технологиям, хотя по большому счету решающее слово остается за гуманитариями. Но если общество захочет давать какие-то преимущества и привилегии женщинам или инвалидам, то по нынешним временам соответствующие поправки должны вноситься не только в законы, но и в настройки принимающих решения систем ИИ (например, тех, что анализируют резюме).

Приведем еще два примера.

Сотрудник австралийской компании был уволен, получив распоряжение об увольнении от компьютерной системы, так что даже его непосредственный начальник не понимал причины увольнения. Только через три недели выяснилось, что причиной этого стала небрежность другого сотрудника, уволившегося из компании, — он банально забыл нажать нужную кнопку.

Второй пример: чернокожий заключенный в США получил от компьютерной системы отказ на просьбу о досрочном освобождении; причиной этого стало то, что в систему были загружены негативные отзывы охранников, имевших расистские предубеждения.

В обоих примерах — хотя они и подаются авторами как пример этических проблем, связанных с ИИ, — подлинные проблемы коренятся в действиях людей, а не компьютеров. Обе проблемы могли бы возникнуть, даже если бы компьютерные системы не имели бы нынешнего значения. Небрежность в оформлении документов, например, связанных с продлением трудового договора, могла привести к увольнению сотрудника. Негативные отзывы охранников-расистов, конечно, во все времена могли бы помешать досрочному освобождению. Но специфика ситуации заключатся еще и в том, что сложность компьютерной системы сильно затруднила поиск причин ее неправильных действий. В итоге австралийскому служащему понадобились недели, чтобы узнать причины своего увольнения, а американскому заключенному — годы, чтобы узнать причины отказа. И это, несомненно, проблема, хотя сама по себе она скорее является технической, а не этической. В то же время этическим можно считать вопрос, имеем ли мы право внедрять компьютерные системы, подвергая людей риску таких технических сложностей. Но, кажется, этот вопрос с моральной точки зрения все-таки не очень сложный, поскольку решения его лежат в технической сфере — искусственный интеллект нуждается в более информативном и понятном интерфейсе.

 


Проблема непрозрачности

 


Тем не менее надо признать: вышеприведенные кейсы подводят еще к одной очень сложной теме. Дело в том, что точный механизм принятия конкретных решений нейросетями, обученными на «больших данных», является непрозрачным. Вопрос этот стал уже темой литературных антиутопий, примером которых может служить роман польского фантаста Рафала Косика «Четки». В выстроенном Косиком мире город находится под властью сверхмощного компьютерного интеллекта, которому подчинена служба элиминации. Это не просто полиция. Полиция расследует уже совершенные преступления и карает за них, а Элиминация устраняет людей, которые еще ничего не совершили, но, по расчетам искусственного интеллекта, имеется очень большая вероятность, что они совершат нечто в будущем.

Главная проблема взаимоотношений людей с искусственным разумом заключается в том, что он непостижим и никто не знает, чем он руководствуется. Известно лишь, что тысячи людей ежегодно отправляются в Элиминацию, — но никто даже не знает, что это значит: предполагается, что речь идет о безболезненном умерщвлении. Подпольное сопротивление, которое пытается бороться с диктатурой ИИ, полагает, что искусственный интеллект тоже борется с подпольщиками, но это только предположение, которое можно лишь с некоторой вероятностью сделать на основании того, что участники сопротивления подозрительно часто попадают в Элиминацию. В романе Рафала Косика первым актом сопротивления господству искусственного интеллекта была именно попытка создания удобного для человека интерфейса, который бы позволил по крайней мере понять, как он принимает свои решения. Однако искусственный интеллект жестоко покарал тех, кто хотел заглянуть к нему за кулисы, — видимо, полагая, что покушение на его власть есть одновременно покушение на безопасность и благополучие людей, которые он охраняет.

Когда нейросети предлагается решать задачи в достаточно формализованных сферах — играть в шахматы, торговать на бирже, вычислять уравнения — то проверять результативность их решений достаточно просто. Но когда нейросети предлагается анализировать резюме, чтобы выбирать кандидатов на вакансию, об эффективности ИИ-кадровика можно судить только интуитивно и исходя из презумпции доверия самой нейросетевой технологии.

Тут в обсуждении этической оправданности допуска ИИ к выбору кандидатов на вакансии возникает развилка. Первый вопрос — «эффективен ли компьютер-кадровик или компьютер-менеджер» — конечно, важен, но это вопрос менеджмента, а не этики. С моральной точки зрения важен второй вопрос: справедливо ли отдавать людей во власть машины, мотивы которой принципиально непрозрачны и неизвестны.

Два этих вопроса, казалось бы, совершенно различны, но все же они тесно связаны. Ибо до того, как в системы менеджмента началось внедрение искусственного интеллекта, работники, как правило, находились во власти топ-менеджеров, заботящихся не столько о благополучии своего персонала, сколько о достижении целей руководимых организаций, в случае частного бизнеса — максимизации прибыли. Работник капиталистического предприятия по умолчанию подвергается эксплуатации (как бы ни толковать этот термин) и играет по правилам, которые вводит руководство компании. Появление нейросети как аппарата, принимающего некоторые тактические решение — отбор кадров или оценка претендентов на банковский кредит, — является не более чем продолжением этой системы, которая, хороша она или плоха, придумана и организована людьми.

 


Виноват капитализм

 


Решения нейросети в сфере корпоративного управления непрозрачны для работников, но ведь и топ-менеджеры не обязаны отчитываться перед подчиненными о мотивах своих решений. А нейросеть в данном случае является продолжением власти топ-менеджеров, которые приняли решение, что доверяют ей в определенных вопросах.

Все это не означает, что тут перед нами нет проблем. В том числе этических — но суть в том, что эти проблемы не вполне специфичны именно для сферы ИИ. Именно в этом видится главный недостаток книги гарвардского профессора Фрэнка Паскуале «Новые законы робототехники», в которой можно найти очень много рассуждений о том, что подчинение людей непрозрачным решениям ИИ лишает их права на человеческое отношение и несовместимо с человеческим достоинством. Фактически Паскуале смешивает недостатки искусственного интеллекта с недостатками метода, лежащего в основе его работы, и с недостатками целей, в которых этот ИИ используется.

Например: ИИ оценивает претендентов на вакансию или потенциальных заемщиков исходя из корреляции, на первый взгляд, с не относящимися к делу вещами, например, походкой, а это несправедливо. Но, во-первых, оценка на основе корреляций и вероятностей — неспецифична для ИИ, она появилась по меньшей мере тогда, когда была изобретена анкета. Этот метод может использоваться и без ИИ. Во-вторых, тем самым ставится вопрос о целях и полномочиях организаций, которые проводят отбор. Чего мы хотим от них? Должны ли они отбирать самых эффективных работников и самых кредитоспособных заемщиков или нет? Руководители банков и корпораций, доверяя специалистам по IT, считают, что эффективнее принимать во внимание как можно больше информации о потенциальных заемщиках или потенциальных работниках, тогда их выбор будет эффективнее. Мы хотим, чтобы этот выбор был менее эффективным? Это надо проговаривать напрямую.

Если это проговаривать — то складывается впечатление, что в «подсознании» подобной критики ИИ лежит левацкая мечта о равенстве, дошедшая до мысли, что если блага нельзя раздать всем, то они должны распределяться рэндомно и вслепую.

Сама логика разбираемых проблем ведет Паскуале от критики ИИ к критике взаимоотношений между менеджментом и работниками внутри капиталистической компании; в рамках этой проблематики ИИ является просто усилителем власти менеджмента, и Паскуале, например, предлагает увеличить роль профсоюзов в управлении компаниями (тут для США примером является Германия). Таким образом, вскрывается, что под личиной заботы об этике искусственного интеллекта лежат обеспокоенность глобальными этическими проблемами капитализма и капиталистических предприятий. Эта логика приводит Фрэнка Паскуале к «лудистской» логике ограничения использования систем автоматизации и роботизации в бизнесе и производстве: он предлагает «новый закон робототехники», в соответствии с которым ИИ и роботы должны увеличивать эффективность людей-работников, но не заменять их. Требование это является несомненно героически-амбициозным, поскольку противоречит всей истории внедрения новых технологий. До сих пор там, где технология могла эффективно и дешево заменить человека, — она его заменяла. Этика искусственного интеллекта ставит вопрос о том, что в многовековой истории обсуждения проблемы технологической безработицы наступает новая эпоха, когда «просвещенный луддизм» — боязнь определенных технологических решений — становится оправданным.

Итак, критики использования возможностей информационных технологий часто просто не хотят, чтобы некоторые виды деятельности, которыми занимаются капиталистические компании, осуществлялись бы более эффективно. Например, им не по душе более эффективная реклама. Среди вызывающих беспокойство кейсов, приводимых на страницах книги «Этика искусственного интеллекта», — выявление с помощью механизма анализа больших данных тех часов и дней недели, когда люди — в среднем — наиболее часто дают себя убедить рекламе. Выявив такие «часы уязвимости», компании сосредотачивают рекламные усилия именно на этих промежутках времени. Критики полагают, что таким образом ИИ становится инструментом манипулирования сознанием, однако, не говоря уже о том, что понятие «манипулирование» крайне расплывчато, перед нами не более чем еще один небольшой шаг в наращивании арсенала рекламной индустрии.

В течение последних 100-150 лет специалисты по рекламе изучали массовую психологию и старались стать как можно более эффективными манипуляторами. Вопрос, таким образом, заключается не в ИИ и больших данных как таковых, а в том, надо ли защищать человека от рекламной информации и как. До того, как использование ИИ в целях рекламы начало подвергаться критике, критиковали манипулирующее воздействие телевизионной рекламы или говорливость разъездных коммивояжеров.

Важно, что в тех случаях, когда мы решаем огородить человека от рекламы, мы тем самым предполагаем, что в момент столкновения с рекламным «месседжем» человек оказывается не вполне вменяемым и не может принимать рациональные решения. В случае запрета приема 25 кадра эта презумпция невменяемости была применена откровенно, но расширение этого принципа — отдельная моральная и политическая проблема. Появляется фигура государства-опекуна, которое лучше самих граждан знает, какова их польза. Этот принцип мы видим победившим в случае борьбы с курением, а в случае борьбы с рекламой речь может пойти вообще о запрете или ограничении спонтанных покупок (известно, что такие покупки иногда запрещали очень пожилым, впадавшим в деменцию).

Перед лицом этих грандиозных проблем вопрос об ИИ становится только технической деталью. ИИ — лишь один из усилителей эффективности рекламы. Суть же проблемы в том, что чем могущественнее рекламный монстр, тем менее вменяемыми и автономными кажутся индивидуумы на его фоне.

 


Так ли хороши люди?

 


Серьезный недостаток аргументации Фрэнка Паскуале и Кэти О’Нил заключается в том, что они сравнивают реальный несовершенный ИИ с идеализированным человеком — не принимая во внимание тот факт, что человек, которого ИИ заменяет, — учитель, судья, генерал, банковский служащий — может быть в той или иной степени ужасным, гневливым, неквалифицированным, безнравственным или вообще отсутствовать.

Мысль авторов рассмотренных книг идет примерно по следующему пути. Искусственный интеллект лишен эмоций; он заменяет людей в различных административных и других процессах, которые раньше строились на взаимоотношении людей; таким образом, из административных процессов уходит человечность, эмпатия и тому подобное. Американский математик Кэти О’Нил в своей книге «Убийственные большие данные» критикует систему, когда нейросеть советует американским судьям, какой приговор (в рамках предусмотренного законом диапазона) вынести преступнику, исходя из рассчитанной на основе статистической информации вероятности рецидива для человека с такими характеристиками. Тем самым преступник лишается права на человечность, которую мог бы проявлять судья, если бы руководствовался только своей совестью и интуицией.

При анализе этого, как и других подобных кейсов, авторы не обременяют себя доказательством того, что человек делает работу ИИ лучше хотя бы с точки зрения справедливости и человечности (молчим про эффективность). Есть и другой вопрос: всегда ли специфические человеческие качества, в частности эмоции, уместны в решении важных вопросов, возложенных на менеджеров, чиновников и судей? Не говоря уже о том, что эмоции питают не только жалость и эмпатию, но еще и жестокость, садизм и расовые предрассудки, а значит судья-компьютер избавляет преступника не только от проявлений человечности, но и от проявлений жестокости.

Есть еще и тот аспект, что не только жестокость, но и положительные эмоции не всегда уместны: если чиновник под влиянием ситуативно нахлынувшего на него сочувствия принимает решение в пользу данного человека, в нарушение каких-то правил, — это может оказаться дискриминацией других людей, в нужный момент не смогших его разжалобить. О том, что «добрый надзиратель» приносит вред надзираемым, писал еще Одоевский в своей сказке «Городок в табакерке». Полезна ли доброта и снисходительность при проверке пожарной безопасности или вынесении приговоров преступникам? Должны ли мы считать негативным тот факт, что с автоматизированной властной институцией невозможен полноценный, «человеческий» диалог, что она лишена жалости и других человеческих эмоций?

 


Эффективность как зло

 


В то же время нельзя отрицать, что развитие информационных — и не только информационных — технологий ставит общество перед новыми коллизиями, связаными с тем, что в базы данных, попадающие в руки государственных органов, крупных корпораций и преступников, теперь может попасть и такая информация о людях, которую раньше собрать было невозможно. Особенно впечатляет появление у государства или капиталистических корпораций доступа к генетической информации людей — проблема пока еще не стала актуальной, но очевидно, что она на пороге.

Важной побочной проблемой является то, что развитие информационных технологий облегчает сбор информации о людях. Это уже привело к конфликтам, вызванным тем, что определенные компании использовали изображения, которые люди выкладывали в соцсетях, хотя, строго говоря, эти изображения были чужой интеллектуальной собственностью.

Вообще, легкость нарушения права интеллектуальной собственности — еще одна проблема IT, но точно не новая и не совсем этическая. Интеллектуальную собственность — будь это патенты на изобретения или авторское право на книги — всегда было легко нарушать. СССР, как известно, вообще не признавал авторские права зарубежных писателей. Информационные технологии тут вносят лишь облегчение процедуры копирования информационных объектов, а дальше идут проблемы правовые, технические, экономические, иногда политические (если целая страна занимается «пиратством) — но отнюдь не этические, во всяком случае, компьютеры и интернет не дают этой проблематике какого-то специфического с этической точки зрения «поворота».

Что касается защиты персональных данных людей, которыми могут злоупотреблять спецслужбы и другие правительственные органы, то тут вопрос об ИИ и информационных технологиях становится частью другого: вопроса об эффективности государства.

«Строгость законов компенсируется необязательностью их исполнения» — этот афоризм выражает чрезвычайно актуальную и относящуюся ко всем странам мысль, что неэффективность государства де-факто является одним из источников политической свободы, хотя источником обычно скрытым и не учитываемым. Вопрос об ограничении эффективности государства подобен вопросу об ограничении эффективности рекламы, но он еще более важен. Когда тирания истолковывается как однозначно негативное явление, то неэффективность тиранического государственного аппарата становится благом — и мы бы не хотели, чтобы с помощью видеокамер и ИИ полиция опознавала участников протестных акций.

Неэффективность государства проявляется в таких феноменах, как возможность восстания, вероятность бунта или неподчинения армии, возможность сбежать с каторги, возможность для оппозиционера сбежать за границу, возможность жить, скрываясь от властей, по поддельным документам, возможность обмануть цензуру в печати. Проблема заключается в том, что «регулярное нарушение законов» — сила иррациональная, неконтролируемая и сопряженная с множеством негативных явлений: преступностью, наркотрафиком и т. д. Поэтому ее никогда не рассматривают как политическую ценность. Слабое государство, как учит нас Чарльз Тилли, не может быть демократическим. Наверное, единственное исключение — закрепленное в Конституции США и некоторых других документах «право на восстание», однако оно никогда не было реальным правом. И тем не менее возможность нарушать — это одно из измерений свободы и, возможно, — одно из латентных фактических условий демократии.

Ясно, что не может быть политической свободы без возможности результативных и неконтролируемых правительством коллективных действий. И по мере того как государства становятся все эффективнее благодаря техническим и экономическим возможностям, мы встаем перед вопросом о политических рисках эффективного госуправления. И таким образом может появиться требование неэффективности как своеобразной современной ипостаси «права на восстание» (хотя, разумеется, такая постановка возможна только в форме дискурса «контролируемой и продуманной неэффективности», что, в сущности, парадокс).

Однако это проблема гораздо шире вопроса об этике искусственного интеллекта. Вопрос стоит о том, чтобы не допустить использование государством некоторых имеющихся у него технических возможностей. Внутри демократических государств такое регулирование отчасти возможно, но тирании, вооруженные современной техникой, кажутся непобедимыми — в фантастике это констатировали авторы классических антиутопий ХХ века, Замятин и Оруэлл, а недавно это с подробностями разъяснил немецкий фантаст Андреас Эшбах в романе «Управление», в котором возможности Интернета и технологии больших данных открылись гитлеровскому режиму.

Подводя итоги, надо признать, что в большинстве случаев этические проблемы коренятся не в компьютере, а в делах и решениях людей, которые усиливает, обслуживает, а иногда даже консервирует искусственный интеллект. Но, конечно, внедрение ИИ в ситуации принятия решений требует особого анализа, чтобы выявить, где в недостатках техники виновны люди, а где мы имеем дело с техническим сбоем. Сложность и непрозрачность работы ИИ является, несомненно, важнейшим вызовом, перед которым стоит современное общество, но собственно этических проблем, относящихся к специфике ИИ, возникает не так много.


 



[1] Коновалова Л. В. Прикладная этика (по материалам западной литературы). Выпуск 1: Биоэтика и экоэтика. М., ИФРАН, 1998, стр. 26

 

[2] Барбур И. Этика в век технологии. М., Библейско-богословский институт св. Андрея. М., 2001.

 

[3] Паскуале Ф. Новые законы робототехники: Апология человеческих знаний в эпоху искусственного интеллекта. М., «Дело», 2022; О`Нил К. Убийственные большие данные: Как математика превратилась в оружие массового поражения. М., «АСТ», 2018; Шталь Б. К., Шредер Д., Родригес Р. Этика искусственного интеллекта: Кейсы и варианты решения этических проблем. М., Высшая Школа Экономики, 2024.

 


Читайте также
Вход в личный кабинет

Забыли пароль? | Регистрация