bannerbannerbanner
Обеспечение фундаментальных прав человека при обработке данных в государственном управлении

Э. В. Талапина
Обеспечение фундаментальных прав человека при обработке данных в государственном управлении

1.2. Равенство и дискриминация при обработке данных

Одной из фундаментальных проблематик, дающих начало целому спектру научно-методологических подходов в области обработки данных в контексте соблюдения прав человека, является выработка недискриминационных способов обработки данных. Именно возможная дискриминация является наиболее часто упоминаемым риском в разнообразных исследованиях – правовых, управленческих, политологических.

В теории прав человека равенство и недискриминация являются основополагающими ценностями. В обоих случаях речь идет о равенстве прав с тем отличием, что право на недискриминацию имеет более узкое содержание и в этом смысле производно от права на равенство.

Концепт равенства можно считать центральным принципом правового государства; в основе системы естественных прав человека лежит представление о том, что люди рождаются свободными и равными в своем достоинстве и правах[62]. Разумеется, в юридическом смысле речь идет о формальном равенстве как равенстве возможностей, обусловленных личными усилиями и личной волей субъектов права[63].

Дискриминация посягает на равенство, представляя угрозу для правового государства. Дискриминация – это не просто различие в обращении. Не каждое различие незаконно и представляет собой дискриминацию. Также дискриминация не просто неравное обращение. Различие в обращении может быть незаконным, но не представлять собой дискриминацию. Дискриминация имеет место в тех случаях, когда неблагоприятное различие в обращении является незаконным и основано на критерии, на основании которого закон запрещает проведение юридических различий[64].

В современный период дискриминация, осуществляемая людьми в отношении других людей, не искоренена, но уже выработаны определенные критерии ее установления, доказывания и привлечения виновных к ответственности. Однако с распространением автоматизированной обработки данных, в особенности на базе технологий больших данных, возникла другая проблема – дискриминации людей со стороны искусственного интеллекта. Вторгаясь в существующее правовое поле, искусственный интеллект затрагивает целый спектр имеющихся норм (защита данных, транспарентность, информационное самоопределение), а также создает новые риски принятия ошибочных решений в отношении конкретных лиц, в основе которых часто лежит дискриминация. Все перечисленные проблемы входят в спектр научных исследований по вопросам обработки данных.

Нормативный контекст преодоления дискриминации как посягательства на равенство

Не будет преувеличением утверждение, что проблемам дискриминации посвящен целый массив нормативных актов, в особенности на международном уровне. Подходы к дискриминации могут базироваться как на общих параметрах (что характерно для более ранних актов общей направленности), так и на более специфических характеристиках, некоторые из них возникли только в последние годы (как, например, генетическая дискриминация). Рассмотрим это подробнее.

Статья 2 Всеобщей декларации прав человека[65] устанавливает общий принцип недискриминации: каждый человек должен обладать всеми правами и всеми свободами, провозглашенными настоящей Декларацией, без какого бы то ни было различия, как-то: в отношении расы, цвета кожи, пола, языка, религии, политических или иных убеждений, национального или социального происхождения, имущественного, сословного или иного положения. Кроме того, не должно проводиться никакого различия на основе политического, правового или международного статуса страны или территории, к которой человек принадлежит, независимо от того, является ли эта территория независимой, подопечной, несамоуправляющейся или как-либо иначе ограниченной в своем суверенитете.

Всеобщая декларация прав человека, провозглашая равенство перед законом и право на равную защиту со стороны закона, запрещает в связи с этим какую бы то ни было дискриминацию и подстрекательство к ней (ст. 7)[66].

Другой вид дискриминации связан с оплатой труда, которая должна быть равной за равный труд (ст. 23)[67]. Таким образом, равенство образует и общий принцип, и самостоятельное право человека, а также служит базой для образования другого права – права на недискриминацию.

Контекст дискриминации в области занятости получил широкое развитие в актах Международной организации труда, основополагающим актом которой является Конвенция о дискриминации в области труда и занятий 1958 г. (Конвенция 111)[68]. В ее трактовке термин «дискриминация» включает:

1) всякое различие, недопущение или предпочтение, проводимое по признаку расы, цвета кожи, пола, религии, политических убеждений, национального происхождения или социальной принадлежности, приводящее к уничтожению или нарушению равенства возможностей или обращения в области труда и занятий;

2) всякое другое различие, недопущение или предпочтение, приводящее к уничтожению или нарушению равенства возможностей или обращения в области труда и занятий, определяемое соответствующим членом по консультации с представительными организациями предпринимателей и трудящихся, где таковые существуют, и с другими соответствующими органами[69].

Расовая и гендерная дискриминация также получила разнообразную правовую поддержку – Конвенция Организации Объединенных Наций о ликвидации всех форм дискриминации в отношении женщин[70], Международная конвенция о ликвидации всех форм расовой дискриминации[71]. Активное проникновение новых технологий в общественные отношения «освежило» тематику дискриминации, повлияв на формирование нового направления – генетической дискриминации. Назовем Международную декларацию ЮНЕСКО о генетических данных человека (16 октября 2003 г.)[72], в которой закреплено стремление к тому, чтобы генетические и протеомные данные человека не использовались в целях, которые носят дискриминационный характер, в силу того что они нарушают или приводят к нарушению прав человека, основных свобод или человеческого достоинства отдельного лица, и чтобы они не использовались в целях, ведущих к стигматизации того или иного лица, семьи, группы или общины (ст. 7 (а))[73]. Всеобщая декларация ЮНЕСКО о биоэтике и правах человека от 19 октября 2005 г. (Декларация ЮНЕСКО о биоэтике 2005 г.) также запрещает дискриминацию и стигматизацию на любых основаниях[74].

 

Стандарты международных актов повторяются или конкретизируются в региональных документах, целью которых также является обеспечение защиты от дискриминации. К их числу относится Американская конвенция о правах человека, которая защищает от дискриминации по признаку расы, цвета кожи, пола, языка, религии, политических или иных убеждений, национального или социального происхождения, экономического положения, рождения и других признаков[75]. На Европейском континенте общее недопущение дискриминации выражено в Конвенции о защите прав человека и основных свобод (Совет Европы)[76], ст. 14 которой устанавливает, что пользование правами и свободами, признанными в конвенции, должно быть обеспечено без какой бы то ни было дискриминации по признаку пола, расы, цвета кожи, языка, религии, политических или иных убеждений, национального или социального происхождения, принадлежности к национальным меньшинствам, имущественного положения, рождения или по любым иным признакам[77]. Нужно сказать, что ст. 14 Конвенции Совета Европы о защите прав человека и основных свобод запрещает дискриминацию только в отношении тех прав и свобод, которые гарантированы в Конвенции и Дополнительных протоколах к ней. В этом смысле ст. 14 Конвенции не является самостоятельной гарантией[78]. Чтобы расширить действие ст. 14 и установить общий запрет дискриминации, 4 ноября 2000 г. был принят Протокол № 12 к Конвенции (который Россией подписан, но не ратифицирован). Однако странным образом этот общий запрет дискриминации распространен только на власть – «никто не может быть подвергнут дискриминации со стороны каких бы то ни было публичных властей». Заметим, что применение этой статьи создало богатую практику ЕСПЧ с разными нюансами.

В Европейском союзе дискриминация запрещена Директивой Совета 2000/43/ЕС от 29 июня 2000 г.,[79] закрепившей осуществление принципа равного обращения с лицами независимо от их расовой принадлежности или этнического происхождения, и в конкретном контексте занятости – Директивой Совета 2000/78/ЕС от 27 ноября 2000 г., устанавливающей общие рамки равного обращения при трудоустройстве[80]. Определение дискриминации, содержащееся в обеих директивах 2000 г., имеет широкий характер, поскольку включает не только понятия прямой и косвенной дискриминации, но и концепцию преследования. В более прикладном плане, для Суда ЕС, дискриминация может состоять в применении разных норм к сравнимым ситуациям или одной и той же нормы к разным ситуациям[81].

Что представляют собой дискриминация и право на недискриминацию, выводится из судебной практики. Прежде всего принцип равенства образует фундаментальный принцип права Европейского союза, как это подчеркивает Суд ЕС[82]. В решениях Суда ЕС сформировался подход к дискриминации как к применению разных правил в сопоставимых ситуациях или применению одного и того же правила к разным ситуациям[83]. ЕСПЧ указал, что понятие дискриминации обычно включает случаи, когда лицо или группа лиц испытывают без надлежащего обоснования менее благоприятное обращение, чем другие лица или группы лиц[84]. Это прямая дискриминация. Но есть и косвенная дискриминация, которая впервые была признана в деле «Тлимменос против Греции»[85], где суд установил нарушение ст. 14 в сочетании со ст. 9 в связи с тем, что заявителю было отказано в возможности работать бухгалтером, поскольку ранее он был осужден за отказ от службы в армии по религиозным мотивам. По мнению суда, дискриминация состояла в том, что греческое законодательство не проводило различия между теми, кто осужден по причине религиозных убеждений, и теми, кто осужден по иным причинам (§ 48). Тем самым имела место косвенная дискриминация, поскольку единые требования применялись ко всем лицам одинаково, тогда как ситуация заявителя значительно отличалась от других лиц. В целом косвенную дискриминацию можно также охарактеризовать как отказ в особом обращении[86] при наличии на то оснований.

В некоторых национальных юрисдикциях закреплена общая антидискриминационная система защиты прав в их конституционных рамках. Например, в Конституции Бразилии ст. 3 IV называет одной из основных целей республики содействие благосостоянию всех людей без ущемления по причине происхождения, расы, пола, цвета кожи, возраста и любых других форм дискриминации, а ст. 7 запрещает любую дискриминацию в отношении заработной платы и критериев найма работников-инвалидов[87]. Кстати, в Конституции Российской Федерации тоже запрещена дискриминация относительно вознаграждения за труд (ст. 37), а также дискриминация в отношении социальной интеграции инвалидов (ст. 114). Общий запрет дискриминации сформулирован в ст. 19 российской Конституции[88].

 

В Канаде целый ряд документов (Канадская хартия прав и свобод, ч. I Конституционного закона 1982 г.) защищает от необоснованного обыска и захвата и вмешательства в жизнь, свободу и безопасность. На Кипре запрещена дискриминация по мотивам принадлежности к общине, расе, религии, языку, полу, политическим или другим убеждениям, национальному или социальному инакомыслию, рождению, цвету кожи, богатству, социальному классу или любому другому основанию. Конституция Чешской Республики провозглашает равенство, Конституция Италии – равенство и недопустимость расовой дискриминации. Статья 14 Конституции Японии гарантирует равную защиту, ст. 7 Конституции Тайваня – равные права для всех граждан. Союзная Конституция Швейцарской конфедерации в ст. 8 трактует равноправие не только как равенство перед законом, но и как недопустимость дискриминации из-за происхождения, расы, пола, возраста, языка, социального положения, образа жизни, религиозных, мировоззренческих или политических убеждений или из-за физической, духовной или психической инвалидности. В Германии Общий закон о равном обращении (Allgemeines Gleichbehandlungsgesetz), вступивший в силу 26.08.2006 г., содержит широкий перечень антидискриминационных мер, действующих в отношении не только возраста, но и расы, пола, национальности, нетрудоспособности и т. д.[89]

Наш нормативный экскурс имел целью не полноту, а, скорее, иллюстративность проблематики дискриминации. Мы выяснили, что данная тематика заняла самостоятельное место как на международном, так и на национальном нормативных уровнях, а также имеет «секторальные предпочтения». Тем, что право на недискриминацию базируется на равенстве, объясняется четкая прослеживаемость общего принципа равенства при анализе права на недискриминацию (т. е. рассмотрение аналогичных ситуаций одним и тем же способом и рассмотрение различных ситуаций по-разному), но большую долю занимают конкретные положения, разработанные специальным законодательством в области борьбы с дискриминацией, касающиеся определенных охраняемых законом оснований (например, возраст, раса, пол, религия, сексуальная ориентация и т. д.), а также конкретная область применения (рынок труда, профессиональная подготовка, образование, социальное обеспечение, здравоохранение, доступ к товарам и услугам, уголовная ответственность). Таким образом, право на недискриминацию – симбиоз, в котором каждый элемент имеет свое место и значение. При этом право на недискриминацию не абсолютно хотя бы потому, что закон правового государства может санкционировать дискриминацию, если предполагается ее необходимость для «выравнивания» прав и возможностей разных категорий лиц. Что меняют в проанализированном status quo цифровые технологии?

Всеобщее равенство является главным принципом правового государства. Если нет равенства, права и свободы теряют смысл – ведь тогда ими можно наделять одних и лишать их других. В равенстве выделяется несколько компонентов – равенство перед законом, перед судом, перед государственными органами, равенство в смысле притязания на государственную помощь. Впрочем, это не означает, что законодатель не может по-разному регулировать различные ситуации и даже в некоторых случаях поступиться равенством во имя публичных интересов (как, например, произошло во время пандемии коронавируса) или для защиты уязвимых либо перспективных групп населения (например, не будет являться дискриминацией государственная поддержка талантливых детей).

Разумеется, формальное равенство нарушается в повседневной жизни, но для его обеспечения выстроена вся система правового государства. В эпоху алгоритмов озвучивается надежда на то, что они облегчат бюрократическую работу и за счет своей технологической нейтральности обеспечат равенство в публичной деятельности.

Но так ли все однозначно? Смысл юридического равенства не только в том, что все подчинены закону одинаково, но и в том, что общая норма применяется к частному случаю индивидуализированно, т. е. с учетом всевозможных обстоятельств. Особенно наглядно это демонстрирует институт юридической ответственности, для которого индивидуализация наказания (ответственности) обретает исключительное значение в смысле достижения справедливости. В индивидуализации – смысл уголовного наказания, административных санкций, гражданско-правовой ответственности.

Управленческую практику индивидуализирует мотивация административных решений. Право на надлежащее государственное управление включает обязанность государственных органов мотивировать свои решения (ст. 41 Хартии фундаментальных прав ЕС)[90]. А алгоритм формализует мотивацию решений, делает ее стереотипной. Поиск баланса между быстрым и эффективным решением на основе алгоритма и учетом индивидуальных обстоятельств дела ставит перед наукой новые задачи – выработать правила обработки данных, базирующиеся на подобном балансе. Выполнимая ли это задача? Верно замечено, что правоприменение по своей природе далеко не всегда способно осуществляться в рамках строгих алгоритмов. В праве существуют пробелы, а любое социальное взаимодействие бывает многоаспектным, допускает различные и порой неоднозначные оценки[91].

В целом необходимо упомянуть, что случаи дискриминации, рассмотренные судами, редко касались автоматизированной обработки данных. Но легко спрогнозировать, что алгоритмы и в особенности искусственный интеллект способны так же дискриминировать людей, как и сами люди.

1.3. Дискриминационный потенциал искусственного интеллекта при обработке данных в государственном управлении

Алгоритмы лежат в основе многих технологий – искусственного интеллекта, распределенного реестра, поддержки принятия решений, Интернета, роботов. Стоит напомнить, что привлечение искусственного интеллекта к принятию решений не связано с цифровой эпохой – первые экспертные системы (юридические и медицинские) на основе искусственного интеллекта появились в 1970-х годах[92].

Почему возникла идея не просто автоматически обрабатывать данные, а использовать искусственный интеллект? Система оценок позволяет квалифицировать склонность, но не помогает понять точно специфику, которая лежит в основании этой склонности. А смысл хорошего решения – в понимании специфики и контекста феномена[93]. Глобальность статистического подхода и скоринга перевела ставки на искусственный интеллект как технологический подход.

В литературе называют следующие сущностные признаки искусственного интеллекта: способность автономной работы и обмена данными с окружающей средой; способность обучаться на основе полученного опыта и в процессе взаимодействия с окружающей средой; способность адаптировать свои решения под изменяющиеся обстоятельства[94].

Поскольку эти компоненты весьма напоминают свойства человеческого мозга, нет никаких объективных причин для того, чтобы искусственный интеллект избежал риска дискриминации людей по какому бы то ни было принципу. Более того, обучаемый на основе многочисленных данных в сети, происходящих от обычных людей, он легко становится и расистом, и фашистом, чему есть масса примеров.

Принятие решений – это когнитивный процесс, который приводит к окончательному выбору из ряда альтернативных вариантов. Но естественная ограниченность людей в исследовании приводит к субъективным решениям, оказывающимся дискриминационными по отношению к «невыбранным».

Искусственный интеллект, обучаемый на основании реальной коллекции человеческих решений, в большинстве своем неидеальных, может воспринять дискриминацию в качестве «нормального» элемента алгоритма. Причем дискриминация посредством алгоритма систематическая, что на деле намного вреднее, нежели разовый людской субъективизм[95].

Поскольку все зависит от того, каким алгоритмом руководствуется искусственный интеллект, в науке формулируется задача достижения беспристрастности классификации, положенной в основу алгоритма. Самый простой путь – усовершенствовать классификатор, удалив самые «чувствительные» параметры, наиболее очевидно свидетельствующие о дискриминации. Обратимся к примерам из «автоматизированной» кадровой политики частных компаний, которая применима и к конкурсному набору на государственную службу. Наем на работу основывается на отборе «лучших» параметров кандидатов, что в дальнейшем способно привести к дискриминации (если в качестве ориентира избраны лучшие работники с наиболее высокой зарплатой за определенный период, которые все оказались мужчинами, женщины-претенденты будут отсекаться автоматически). Такой, казалось бы, нейтральный параметр, как место жительства, может косвенно указывать на национальность или расу (не секрет, что во многих городах мира существуют кварталы компактного заселения по национальному признаку). Адрес проживания может свидетельствовать и о социальном положении лица, его достатке. Сложность состоит еще и в том, что механическое отсечение некоторых параметров не всегда приводит к недискриминации (посредством обработки больших данных можно извлечь даже ту информацию, которая кандидатами не предоставлялась)[96]. Все эти случаи могут иметь место и при конкурсном отборе государственных служащих, и при распределении общественно значимых благ.

Упоминавшийся выше Регламент № 2018/1725 Европейского парламента и Совета Европейского союза «О защите физических лиц при обработке персональных данных» установил обязательность оценки воздействия на защиту данных (data protection impact assessment). Если тип обработки данных, в частности использование новых технологий с учетом характера, масштаба, контекста и целей обработки, может привести к возникновению высокой степени риска для прав и свобод физических лиц, контролер перед обработкой должен провести оценку воздействия предполагаемых операций по обработке на защиту персональных данных (ст. 39). Для оценки соблюдения основных прав могут использоваться большие данные, которые содержат потенциал выявления систематических предубеждений и дискриминации[97].

Углубленные исследования подтверждают, что суждение о нейтральности технологий, в частности алгоритмов, несколько преувеличено. Алгоритм составляется людьми. Они отбирают его составные части, преследуя определенную цель. Это означает, что в алгоритм уже закладывается предпочтение, связанное с определенным ожидаемым поведением или характеристиками[98]. Получается, что выбор (в пользу заранее предполагаемого решения) может быть сделан уже на стадии разработки алгоритма.

В качестве нейтрализатора подобных рисков в публичной сфере обычно называют транспарентность. Поэтому транспарентность алгоритмов относят к первичному «барьеру» на пути дискриминации.

В изученной нами литературе различают также нюансы дискриминации в процессе обработки данных. Так, дискриминация может быть хорошо скрытой и едва различимой для людей. В таких случаях человек, который подвергается алгоритмической оценке, не сможет распознать дискриминацию, даже если ему была представлена информация о функциональных возможностях системы и обоснование решения. Также было замечено, что алгоритмы образуют различные группы на основе широкого диапазона параметров, которые необязательно связаны с классическими типами дискриминации, но тем не менее приводят к несправедливому обращению с членами некоторых групп, на базе корреляций. Поскольку для этих случаев традиционные антидискриминационные правила не предлагают решения, было высказано предположение, что использование алгоритмических приложений в чувствительных областях необходимо подчинить независимым механизмам контроля, например, в отношении кода, спецификации процесса обучения, а в случае сложных приложений или обновлений для машинного обучения, возможно, необходим непрерывный контроль[99].

Другие авторы выявили прочие возможные стратегии, например предоставление активного выбора между услугами по сбору данных, оказание которых осуществляется за плату в виде персональных данных, в противовес тем услугам, которые оплачиваются деньгами[100]. Упомянем также, что отдельным направлением является изучение возможностей ценовой дискриминации со стороны ИИ. Несмотря на то что это, казалось бы, не относится напрямую к правам человека, данное знание полезно с точки зрения поиска решения проблем. Специалисты предполагают, что алгоритмы могут способствовать дискриминационному ценообразованию либо приводят к другим антиконкурентным ценовым стратегиям. В ответ на предположение об алгоритмическом сговоре предлагается разнообразный набор решений. Самое консервативное – утверждать, что действующий закон достаточно широк, чтобы охватить технологическую эволюцию алгоритмического сговора. Подобная система предупреждения поддерживается чаще всего штрафами. Другие предлагают разработать специальное правило разумности, или систему для аудита алгоритмов. Альтернативный подход мог бы заключаться в усовершенствовании конфиденциальности потребителей или снижении ценовой прозрачности с целью «отключения» для системы возможности использовать преимущество на рынке[101].

62Лапаева В. В. Правовой принцип формального равенства//Журнал российского права. – 2008.– № 2.—С. 67–80.
63Нерсесянц В. С. К праву. О происхождении равенства (из неопубликованного)//История государства и права. – 2009.– № 17. —С. 2–7.
64Mine М. Les concepts de discrimination directe et indirecte. http:// www.era-comm.eu/oldoku/Adiskri/02_Key_concepts/2003_Mine_FR.pdf.
65Всеобщая декларация прав человека принята Генеральной Ассамблеей ООН 10 декабря 1948 г.//Доступ из справочно-правовой системы «Консультант-Плюс».
66Там же.
67Там же.
68Конвенция № 111 Международной организации труда «Относительно дискриминации в области труда и занятий» принята в Женеве 25 июня 1958 г. на 42-й сессии Генеральной конференции МОТ//Доступ из справочно-правовой системы «КонсультантПлюс».
69Там же.
70Конвенция о ликвидации всех форм дискриминации в отношении женщин принята резолюцией 34/180 Генеральной Ассамблеи ООН от 18 декабря 1979 г. https://www.un.org/ru/documents/decl_conv/conventions/cedaw.shtml.
71Международная конвенция о ликвидации всех форм расовой дискриминации принята резолюцией 2106 (XX) Генеральной Ассамблеи ООН от 21 декабря 1965 г. https://www.un.org/ru/documents/decl_conv/conventions/raceconv. shtml.
72Международная декларация о генетических данных человека принята резолюцией Генеральной конференции ЮНЕСКО по докладу Комиссии III на 20-м пленарном заседании 16 октября 2003 г. https://www.un.org/ru/docu-ments/declconv/declarations/genomedec. shtml.
73Международная декларация о генетических данных человека принята резолюцией Генеральной конференции ЮНЕСКО по докладу Комиссии III на 20-м пленарном заседании 16 октября 2003 г.
74Всеобщая декларация о биоэтике и правах человека принята резолюцией Генеральной конференции ЮНЕСКО по докладу Комиссии III на 18-м пленарном заседании 19 октября 2005 г. https://www.un.org/ru/documents/decl_ conv/declarations/bioethics_and_hr.shtml.
75Американская Конвенция о правах человека принята Межамериканской конференцией по правам человека 22 ноября 1969 г. в Сан-Хосе, https:// www.refworld.org.ru/pdfid/561292294.pdf.
76Конвенция о защите прав человека и основных свобод заключена в г. Риме 04 ноября 1950 г.//Доступ из справочно-правовой системы «Консультант-Плюс».
77Там же.
78Бартенев Д.Г. Запрет дискриминации: практический обзор подходов Европейского суда по правам человека//Международное правосудие. – 2019. – № 1.-С. 43–66.
79Директива Совета Европейского союза 2000/43/ЕС от 29 июня 2000 г., имплементирующая принцип равного обращения с людьми независимо от их расового или этнического происхождения, http://base.garant.ru/2569865/.
80Директива Совета Европейского союза 2000/78/ЕС от 27 ноября 2000 г. «О создании общих стандартов в поддержку равноправия в сфере занятости и труда», http://base.garant.ru/2564485/.
81CJEU, 17 juin 1998, Kathleen Hill, aff. C-243/95, rec. 1998. P. 1–3739.
82CJEU, Angel Rodriguez Caballero/Fondo de Garantfa Salarial, aft. C-442/00.
83CJEU, Racke v. Hauptzollamt Mainz, C-283/83; CJEU, Finanzamt Kbln-Altstadt v. Schumacker, C-279/93; CJEU, Kingdom of Spain v. Council of the European Communities, C-203/86.
84Eur. Court H.R. Abdulaziz, Cabales and Balkandali v. the United Kingdom. Applications nos. 9214/80, 9473/81, 9474/81. Judgment of 28 July 1995. § 82.
85Eur. Court H.R. Thlimmenos v. Greece. Application no. 34369/97. Judgment of 6 April 2000.
86Бартенев Д.Г. Запрет дискриминации: практический обзор подходов Европейского суда по правам человека//Международное правосудие. – 2019. – № 1.-С. 43–66.
87Конституция Федеративной Республики Бразилия от 5 октября 1988 г. https://brasil-russia.ru/wp-content/uploads/2014/01/%d0%ba%d0%be%d0%bd %dl%81%dl%82%d0%b8%dl%82%dl%83%dl%86%d0%b8%dl%8f-%d0%91%dl %80%d0%b0%d0%b7%d0%b8%d0%bb%d0%b8%d0%b8-%d0%bd%d0%b0-%dl %80%dl%83%dl%81%dl%81%d0%ba%d0%be%d0%bc.pdf.
88Конституция Российской Федерации принята всенародным голосованием 12 декабря 1993 г. с изменениями, одобренными в ходе общероссийского голосования 01 июля 2020 г.//Доступ из справочно-правовой системы «КонсультантПлюс».
89Khoury L., Blackett A., Vanhonnaeker L. (eds.). Genetic Testing and the Governance of Risk in the Contemporary Economy. – Springer, 2020.
90Хартия Европейского союза об основных правах, https://eulaw.ru/treaties/ charter/.
91Пашенцев Д.А. Особенности правоприменения в условиях цифровизации общественных отношений//Вестник Санкт-Петербургского университета. Право.– 2020.– № 1. – С. 35–49.
92BourcierD. De 1’intelligence artificielle a la personne virtuelle: emergence d’une entite juridique?//Droit et societe. – 2001. —№ 3.
93Huret A., Huet J.-M. L’intelligence artificielle au service du marketing// L’Expansion Management Review. – 2012. —№ 3.
94Малышкам А. В. Интегрирование искусственного интеллекта в общественную жизнь: некоторые этические и правовые проблемы//Вестник Санкт-Петербургского университета. Право. – 2019.– № 3. —С. 444–460.
95Kamiran F., Zliobaite L, Calders T. Quantifying explainable discrimination and removing illegal discrimination in automated decision making//Knowledge and Information Systems. – 2012. June.
96Hacker Ph. The Ambivalence of Algorithms. Gauging the Legitimacy of Personalized Law//Bakhoum Mor, Conde Gallego Beatriz, Mackenrodt Mark-Oliver, Surblyte-Namaviciene Gintare (eds.). Personal Data in Competition, Consumer Protection and Intellectual Property Law. Towards a Holistic Approach? – Springer, 2018.
97BigData: Discrimination in data-supported decision making, https://fra.europa. eu/sites/default/files/fra_uploads/fra-2018-focus-big-data_en.pdf.
98Pauliat H. La decision administrative et les algorithmes: une loyaute a con-sacrer//Revue du droit public. – 2018. —№ 3.
99Martini М. (2017). Algorithmen als Herausforderung fur die Rechtsordnung// JuristenZeitung.-№ 72 (21).-P. 1017–1025.
100Hacker Ph. The Ambivalence of Algorithms. Gauging the Legitimacy of Personalized Law//Bakhoum Mor, Conde Gallego Beatriz, Mackenrodt Mark-Oliver, Surblyte-Namaviciene Gintare (eds.). Personal Data in Competition, Consumer Protection and Intellectual Property Law. Towards a Holistic Approach? – Springer, 2018.
101Van Uytsel S. Artificial Intelligence and Collusion: A Literature Overview // Corrales M., Fenwick M., Forgo N. (eds.) Robotics, Al and the Future of Law. – Springer, 2018.
Рейтинг@Mail.ru