Вестник Пермского университета. Юридические науки. 2021. Вып. 3 (53)

Название: ПРЕДВЗЯТОСТЬ АЛГОРИТМОВ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ВОПРОСЫ ЭТИКИ И ПРАВА
Авторы:

Ю. С. Харитонова, Московский государственный университет имени М. В. Ломоносова

Этот адрес электронной почты защищен от спам-ботов. У вас должен быть включен JavaScript для просмотра.
ORCID: 0000-0001-7622-6215
ResearcherID: K-7495-2016
Статьи автора в БД «Scopus» и «Web of Science»:       DOI: 10.17072/1995-4190-2019-43-121-145
DOI: 10.17072/1995-4190-2020-49-524-549
DOI: 10.17072/1995-4190-2016-34-451-460 

В. С. Савина, Российский экономический университет имени Г. В. Плеханова

Этот адрес электронной почты защищен от спам-ботов. У вас должен быть включен JavaScript для просмотра.
ORCID: 0000-0002-8385-9421
ResearcherID: G-2782-2014
Статьи автора в БД «Scopus» и «Web of Science»:       DOI: 10.17072/1995-4190-2020-49-524-549

Ф. Паньини, LOYTEC Electronics GmbH (Вена, Австрия)

Этот адрес электронной почты защищен от спам-ботов. У вас должен быть включен JavaScript для просмотра.
ORCID: 0000-0003-4618-0740 ResearcherID: AAU-6991-2021
Статьи автора в БД «Scopus» и «Web of Science»:       --- 
Реквизиты: Харитонова Ю. С., Савина В. С., Паньини Ф. Предвзятость алгоритмов искусственного интеллекта: вопросы этики и права // Вестник Пермского университета. Юридические науки. 2021. Вып. 53. C. 488–515. DOI: 10.17072/1995-4190-2021-53-488-515
DOI: 10.17072/1995-4190-2021-53-488-515
Аннотация:

Введение: в работе рассматриваются правовые проблемы применения технологии искусственного интеллекта для решения социально-экономических задач. Конвергенция двух подрывных технологий – искусственного интеллекта (Artificial Intelligence) и Data Science (работа с большими данными (англ. Big Data) – породила качественное изменение общественных отношений в различных сферах жизни людей. Преобразующую роль сыграли как классические области искусственного интеллекта: алгоритмическая логика, планирование, представление знаний, моделирование, автономные системы, мульти­агентные системы, экспертные системы, системы поддержки принятия решений, моделирование, распознавание образов, обработка изображений и обработка естественного языка, так и специальные области: обучение представлениям, машинное обучение, оптимизация, статистическое моделирование, математическое моделирование, аналитика данных, обнаружение знаний, наука о сложности, вычислительный интеллект, анализ событий и поведения, анализ социальных медиа / сетей, а в последнее время – глубокое обучение и когнитивные вычисления. Названные технологии искусственного интеллекта и больших данных применяются в различных сферах бизнеса для упрощения и ускорения принятия разного рода и значимости решений. В то же время установлено, что самообучающиеся алгоритмы создают или воспроизводят неравноправие участников оборота, приводят к дискриминации в связи с обнаруживающейся алгоритмической предвзятостью. Цель: сформировать представление о направлениях правового регулирования алгоритмической предвзятости при применении технологии искусственного интеллекта с позиций права на основе анализа российских и зарубежных научных концепций. Методы: эмпирические методы сравнения, описания, интерпретации; теоретические методы формальной и диалектической логики; частнонаучные методы: юридико-догматический и метод толкования правовых норм. Результаты: искусственный интеллект имеет множество преимуществ (улучшение творческих способностей, услуг, безопасности, образа жизни, помощь в решении проблем), но в то же время вызывает и множество опасений в связи с неблагоприятным воздействием на автономию личности, конфиденциальность, а также основные права и свободы человека. Алгоритмическая предвзятость существует даже тогда, когда у разработчика алгоритма нет намерения дискриминации, и даже когда рекомендательная система не принимает на вход демографическую информацию: тем не менее, тщательно используя сходство товаров и пользователей, алгоритм может в конечном счете рекомендовать товар очень однородному составу пользователей. Представляется, что выявленные проблемы и риски предвзятости при применении технологии искусственного интеллекта должны быть учтены юристами и разработчиками и максимально смягчены на уровне как формирования этических принципов и требований, так и правовой политики и права на национальном и наднациональном уровнях. Юридическое сообщество полагается на решение проблемы алгоритмической предвзятости через принятие разного рода деклараций, политик и стандартов, соблюдение которых будет необходимо при разработке, тестировании и эксплуатации систем искусственного интеллекта. Выводы:если оставить без внимания предвзятые алгоритмы, то они приведут к решениям, могущим повлечь коллективное разрозненное влияние на определенные группы людей даже без намерения программиста проводить различие. Современное изучение предполагаемых и непредвиденных последствий применения алгоритмов искусственного интеллекта исключительно важно, особенно потому, что меры текущей государственной политики могут быть недостаточными для выявления, смягчения и устранения последствий такой неочевидной предвзятости для участников правовых отношений. Решение проблем предвзятости алгоритмов посредством только технических средств не приведет к желаемым результатам. Мировое сообщество задумалось о введении стандартизации и разработке этических принципов, что позволит установить рамки для справедливого применения искусственного интеллекта в принятии решений. Необходимо создание специальных норм, устанавливающих ограничения алгоритмической предвзятости. Независимо от сфер выявления таких нарушений они должны содержать общие признаки недобросовестного поведения участников общественных отношений, которое может быть квалифицировано как нарушение прав человека или нарушение добросовестной конкуренции. Минимизации предвзятости алгоритмов будет способствовать обязательное введение в оборот данных таким образом, что не позволит проводить явную или скрытую сегрегацию различных групп населения, т. е. анализу подлежать должны данные без явных групповых признаков в полном их разнообразии. Общеприменимая модель искусственного интеллекта тем самым будет строиться на анализе данных всех социально-правовых групп общества.

Ключевые слова: искусственный интеллект; предвзятость алгоритмов; права человека; самообучающееся программное обеспечение; взаимодействие человека с машиной; риски применения искусственного интеллекта; стандартизация систем искусственного интеллекта
  скачать полный текст статьи
Цитируемая литература: 1. Вейценбаум Дж. Возможности вычислительных машин и человеческий разум: От суждений к вычислениям. М.: Радио и связь, 1982. 369 с.
2. Савельев А. И. Комментарий к Федеральному закону от 27 июля 2006 г. № 149-ФЗ «Об информации, информационных технологиях и защите информации» (постатейный). М.: Статут, 2015. 320 с.
3. Харитонова А. Р. Сохранность и анонимность персональных данных в социальных сетях // Предпринимательское право. 2019. № 4. С. 48 – 55. [Приложение «Право и Бизнес»].
4. Харитонова Ю. С. Контекстная (поведенческая) реклама и право: точки пересечения // Рожкова М.А. Право в сфере Интернета: сб. ст. / М. З. Али, Д. В. Афанасьев, В. А. Белов [и др.]; рук. авт. кол. и отв. ред. М. А. Рожкова. М.: Статут, 2018. 528 с.
5. Харитонова Ю. С., Савина В. С. Технология искусственного интеллекта и право: вызовы современности // Вестник Пермского университета. Юридические науки. 2020. Вып. 3. С. 524–549. DOI: 10.17072/1995-4190-2020-49-524-549.
6. Adelman L. Unnatural Causes: Is Inequality Making Us Sick? // Preventing Chronic Disease. 2007. Vol. 4., № 4.
7. Agniel D., Kohane I. K., Weber G. M. Biases in Electronic Health Record Data due to Processes Within the Healthcare System: Retrospective Observational Study // BMJ, 2018. Vol. 361, № 8151. k1479.
8. Angwin J., Larson J, Mattu S, Kirchner L., Machine Bias 2016. May 23, 2016. URL: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.
9. Baeza-Yates, R. Data and Algorithmic Bias in the Web. // Proceedings of the 8th ACM Conference on Web Science. 2016, May.
10. Bakshy E., Messing S., Adamic L. A. Exposure to Ideologically Diverse News and Opinion on Facebook // Science. 2015. № 348(6239). Pp.1130–1132. DOI: 10.1126/science.aaa1160.
11. Barr A. Google Mistakenly Tags Black People as 'Gorillas,'Showing Limits of Algorithms // The Wall Street Journal. 2015. № 1. URL: https://www.wsj.com/articles/BL-DGB-42522.
12. Bartolini C., Lenzini G., Santos C. An Agile Approach to Validate a Formal Representation of the GDPR // JSAI: Annual Conference of the Japanese Society for Artificial Intelligence. Springer, Cham. 2018. November. Pp. 160–176.
13. Bengio Y. Learning Deep Architectures for AI. Now Publishers Inc. 2009.
14. Benkler Y. Don't Let Industry Write the Rules for AI // Nature, 2019. № 569(7754). Pp. 161–162. DOI: https://doi.org/10.1038/ d41586-019-01413-1.
15. Buolamwini J., Gebru T. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification // Proceedings of the Conference on Fairness, Accountability and Transparency. PMLR. 2018. January. Vol. 81. Pp. 77–91. URL: http://proceedings.mlr.press/v81/buo¬lam-wini18a/buolam¬wini18a.pdf.
16. Burns N. Why Should We Expect Algorithms to Be Biased // MIT Technology Review 2016. URL: https://www.tech¬no-logyreview.com/ s/601775/why-we-should-expect-algorithms-to-be-biased/.
17. Casacuberta D. Bias in a Feedback Loop: Fuelling Algorithmic Injustice // СССB LAB. May 9, 2018.
18. Chiappa S. Path-Specific Counterfactual Fairness// Proceedings of the AAAI Conference on Artificial Intelligence. 2019. July. Vol. 33, № 1. Pp. 7801–7808.
19. Colleoni E., Rozza A., Arvidsson A. Echo Chamber or Public Sphere? Predicting Political Orientation and Measuring Political Homophily in Twitter Using Big Data // Journal of Communication. 2014. № 64(2). Pp. 317–332.
20. Courtland R. Bias Detectives: the Researchers Striving to Make Algorithms Fair // Nature. 2018. № 558. Pp. 357–60.
21. Del Vicario M., Bessi A., Zollo F., Petroni F., Scala A., Caldarelli G. et al. The spreading of misinformation online // Proceedings of the National Academy of Sciences. 2016. № 113(3). Pp. 554–559.
22. Dixon B. What is Algorithmic Bias? // TechTalks. March 26, 2018. URL: https://bdtech¬talks.com/2018/03/26rasist-secsist-ai-depp-leaning-algoritms.
23. Edizel B., Bonchi F., Hajian S., Panis-son A., Tassa T. FaiRecSys: Mitigating Algorithmic Bias in Recommender Systems. International Journal of Data // Science and Analytics. 2020. № 9(2). Pp. 197–213.
24. Fitzpatrick T. B. «Soleil et peau» [Sun and skin] // Journal de Médecine Esthétique (in French). 1975. № (2).Pp. 33–34.
25. Floridi L. Translating principles into Practices of Digital Ethics: Five Risks of Being Unethical // Philosophy & Technology. 2019. № 32(2). Pp. 185–193.
26. Garcia M. Racist in the Machine: The disturbing Implications of Algorithmic Bias // World Policy Journal. 2016. № 33(4). Pp. 111–117.
27. Garimella K., De Francisci Morales G., Gionis A., Mathioudakis M. Political Discourse on Social Media: Echo Chambers, Gatekeepers, and the Price of Bipartisanship. // Proceedings of the 2018 World Wide Web Conference on World Wide Web. International World Wide Web Conferences Steering Committee. 2018. P. 913–922.
28. Hacker P. Teaching Fairness to Artificial Intelligence: Existing and Novel Strategies Against Algorithmic Discrimination under EU Law // Common Market Law Review. 2018. № 55(4).
29. Hagendorff T. The Ethics of AI Ethics: an Evaluation of Guidelines // Minds and Machines. 2020. № 30(1). Pp. 99–120.
30. Hajian S., Bonchi F., Castillo C. Algorithmic Bias: From Discrimination Discovery to Fairness-Aware Data Minin // Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 2016. Pp. 2125–2126.
31. Hao K. This is How AI Bias Really Happens – And Why It's so Hard to Fix // MIT Technology Review. URL: https://www.tech¬no-logyreview.com/s/612876/this-is-how-ai-bias-really-happen¬sand-why-its-so-hard-to-fix/.
32. Heidari H., Nanda V., Gummadi K. P. On the Long-Term Impact of Algorithmic Decision Policies: Effort Unfairness and Feature Segregation through Social Learning. URL: https://arxiv.org/abs/1903.01209.
33. Ignatieff M. Political Polarization in the American Public. Annual Colloquium on Fundamental Rights. Brussels, 2016.
34. Jackson J. R. Algorithmic Bias // Journal of Leadership, Accountability & Ethics. 2018. № 15(4). Pp. 55–65.
35. Jobin A., Ienca M., Vayena E. The Global Landscape of AI Ethics Guidelines // Nature Machine Intelligence. 2019. № 1(9). Pp. 389–399.
36. Klingenberg C. O., Borges M. A. V., Antunes Jr, J. A. V. Industry 4.0 as a Data-Driven Paradigm: A Systematic Literature Review on Technologies // Journal of Manufacturing Technology Management. 2019. Vol. 32. Issue 3. Pp. 570–592.
37. Koene A., Dowthwaite L., Seth S. IEEE P7003™ Standard for Algorithmic Bias Considerations: Work in Progress Paper // Proceedings of the International Workshop on Software Fairness. 2018. May. Pp. 38–41.
38. Koren Y. Collaborative Filtering with Temporal Dynamics // Communications of the ACM. 2010. № 53(4). Pp. 89–97.
39. Lipton Z. C. The Foundations of Algorithmic Bias. 2016. URL: http: //approximate¬ly¬correct.com/2016/11/07/the-foundations-of-algo¬rithmic-bias/.
40. Ludbrook F., Michalikova K. F., Muso¬va Z., Suler P. Business Models for Sustainable Innovation in Industry 4.0: Smart Manufacturing Processes, Digitalization of Production Systems, and Data-Driven Decision Making // Journal of Self-Governance and Management Economics. 2019. № 7(3). Pp. 21–26.
41. Mäs M, Bischofberger L. Will the Personalization of Online Social Networks Foster Opinion Polarization? 2015. URL: http://dx.doi.org/ 10.2139/ssrn.2553436.
42. Moutafis R. We're Facing a Fake Science Crisis, and AI is Making it Worse // Journals are Retracting More and More Papers Because They're not by the Authors They Claim to Be. June 8, 2021 Updated: June 9, 2021. URL: https://builtin.com/artificial-intelligence/ai-fake-science.
43. Panch T., Szolovits P., Atun R. J. Artificial Intelligence, Machine Learning and Health Systems // Journal of Global Health. 2018 Dec.; № 8(2):020303. DOi: 10.7189/jogh.08.020303
44. Panch T., Mattie H., Atun R. Artificial Intelligence and Algorithmic Bias // Implications for Health Systems. // Journal of Global Health. 2019. № 9(2). DOi: 10.7189/jogh.09.020318.
45. Pariser E. The filter bubble: What the Internet is Hiding from You. Penguin UK, 2011.
46. Paulus J. K., Kent D. M. Predictably Unequal: Understanding and Addressing Concerns that Algorithmic Clinical Prediction May Increase Health Disparities // NPJ Digital Medicine. 2020. № 3(1). Pp. 1–8.
47. Rodrigues R. Legal and Human Rights Issues of AI: Gaps, Challenges and Vulnerabilities // Journal of Responsible Technology. 2020. Vol. 4, 100005. URL: https://doi.org/10.1016/j.jrt. 2020. 100005.
48. Schmidt A. L., Zollo F., Del Vicario M., Bessi A., Scala A., Caldarelli G., et al. Anatomy of News Consumption on Facebook // Proceedings of the National Academy of Sciences. 2017. № 114(12). Pp. 3035–3039.
49. Schmidt A.L., Zollo F., Scala A., Quattrociocchi W. Polarization Rank: A Study on European News Consumption on Facebook. arXiv preprint arXiv:180508030. 2018.
50. Schroeder D., Chatfield K., Singh M., Chennells R., Herissone-Kelly P. Ethics Dumping and the Need for a Global Code of Conduct // Equitable Research Partnerships, Springer. 2019.
51. Shaulova T. Artificial Intelligence vs. Gender Equality // International Relations and Dialogue of Cultures. 2019. № 7. Pp. 52–54.
52. Simonite T. When it Comes to Gorillas, Google Photos Remains Blind. Wired, 2018. January 11. URL: https://www.wired.com/story/when-it-comes-to-gorillas-google-photos-remains-blind/.
53. Sîrbu A., Pedreschi D., Giannotti F., Kertész J. Algorithmic Bias Amplifies Opinion Fragmentation and Polarization: A Bounded Confidence Model // PloS one. 2019. № 14(3). https://doi.org/10.1371/journal.pone.0213246. URL: https://journals.plos.org/plosone/ar-ticle?id= 10.1371/journal.pone.0213246.
54. Smith L. Unfairness by Algorithm: Distilling the Harms of Automated Decision-Making // Future of Privacy Forum. 2017. URL: https://fpf. org/2017/12/11/unfairness-by-algorithm-distilling-theharms-of-automated-decision-making.
55. Stojanovic L., Dinic M., Stojanovic N., Stojadinovic A. Big-Data-Driven Anomaly Detection in Industry (4.0): An Approach and a Case Study // 2016 IEEE International Conference on Big Data (Big Data) (2016, December. Pp. 1647–1652). IEEE.
56. Strickland E. Racial Bias Found in Algorithms That Determine Health Care for Millions of Patients // IEEE Spectrum. October 24, 2019.
57. Wael W. D., Artificial Intelligence SC 42 Overview, ITU Workshop on AI and Data Commons January. 2020. Geneva, Switzerland. URL: https://www.itu.int/en/ITU-T/extcoop/ai-data-commons/Documents/ISO_IEC%20JTC1%20SC% 2042%20Keynote_Wael%20Diab.pdf.
58. Winfield A. An Updated Round Up of Ethical Principles of Robotics and AI. Retrieved on August 13th, 2019. URL: https://tex.stackex-change.com/questions/3587/ how-can-i-use-bibtex-to-cite-a-web-page.
Поступила в редакцию: 03.03.2021
Финансирование:

Исследование выполнено в рамках Программы развития Междисциплинарной научно-образовательной школы Московского университета «Математические методы анализа сложных систем»

Пермский Государственный Университет
614068, г. Пермь, ул. Букирева, 15 (Юридический факультет)
+7 (342) 2 396 275
vesturn@yandex.ru
ISSN 1995-4190 ISSN (eng.) 2618-8104
ISSN (online) 2658-7106
DOI 10.17072/1995-4190
(с) Редакционная коллегия, 2011.
Журнал зарегистрирован в Федеральной службе по надзору в сфере связи и массовых коммуникаций.
Свид. о регистрации средства массовой информации ПИ № ФС77-33087 от 5 сентября 2008 г.
Перерегистрирован в связи со сменой наименования учредителя.
Свид. о регистрации средства массовой информации ПИ № ФС77-53189 от 14 марта 2013 г.
Журнал включен в Перечень ВАК и в РИНЦ (Российский индекс научного цитирования)
Учредитель и издатель: Государственное образовательное учреждение высшего образования
Пермский государственный национальный исследовательский университет”.
Выходит 4 раза в год.