Субъектность объяснимого искусственного интеллекта
https://doi.org/10.30727/0235-1188-2022-65-1-72-90
Аннотация
Статья посвящена определению путей развития способности систем искусственного интеллекта (ИИ) давать объяснения своим выводам. Эта тема не нова, однако именно сейчас нарастание сложности этих систем заставляет ученых активизировать исследования в этом направлении. Современные нейронные сети содержат сотни слоев нейронов, число параметров этих сетей достигает триллионов, генетические алгоритмы порождают тысячи поколений решений, семантика моделей ИИ усложняется, достигая квантового и нелокального уровней. Ведущие компании мира вкладывают огромные средства в создание объяснимого ИИ (Explainable AI, XAI), однако результат пока остается неудовлетворительным ‒ человек зачастую не может понять «объяснений» ИИ, потому что последний принимает решения иначе, чем человек, а возможно, потому что получить хорошее объяснение невозможно в рамках классической парадигмы ИИ. С похожей проблемой ИИ столкнулся лет 40 назад, когда экспертные системы содержали всего несколько сотен логических правил-продукций. Проблема тогда была решена за счет усложнения логики и построения дополнительных баз знаний для объяснения выводов, даваемых ИИ. Сейчас, по-видимому, нужны иные подходы, прежде всего учитывающие внешнее окружение и субъектность систем ИИ. Настоящая работа акцентирует внимание на разрешении этой проблемы через погружение моделей ИИ в социально-экономическую среду, построение онтологий этой среды, а также учет профиля пользователя и формирование условий для целенаправленной сходимости решений и выводов ИИ к понятным пользователю целям.
Ключевые слова
Об авторе
Александр Николаевич РайковРоссия
Райков Александр Николаевич – доктор технических наук, ведущий научный сотрудник Института проблем управления РАН, профессор МИРЭА – Российского технологического университета.
Москва
Список литературы
1. Абросимов, Райков 2022 ‒ Абросимов В.К., Райков А.Н. Интеллектуальные сельскохозяйственные роботы. – М.: Карьера Пресс, 2022.
2. Вагин и др. 2004 – Вагин В.Н., Головина Е.Ю., Загорянская А.А., Фомина М.В. Достоверный и правдоподобный вывод в интеллектуальных системах / под ред. В.Н. Вагина и Д.А. Поспелова. – М.: Физматлит, 2004.
3. Дубровский 2021 ‒ Дубровский Д.И. Задача создания Общего искусственного интеллекта и проблема сознания // Философские науки. 2021. Т. 64. № 1. С. 13‒44.
4. Лепский 2021 ‒ Лепский В.Е. Искусственный интеллект в субъектных парадигмах управления // Философские науки. 2021. Т. 64. № 1. С. 88‒101.
5. Райков 2009 ‒ Райков А.Н. Протуберанцы макроэкономики // Экономические стратегии. 2009. № 7. С. 42–49.
6. Шалова 2016 – Шалова С.Х. Обзор и анализ исследований в области систем обволакивающего интеллекта // Инженерный вестник Дона. 2016. № 4 (43). С. 125.
7. Adadi, Berrada 2018 – Adadi A., Berrada M. Peeking Inside the BlackBox: A Survey on Explainable Artificial Intelligence (XAI) // IEEE Access. 2018. Vol. 6. P. 52138–52160.
8. Arrieta et al. 2020 ‒ Arrieta A.B., Díaz-Rodríguez N., Del Ser J., Bennetot A., Tabik S., Barbado A., García S., Gil-López S., Molina D., Benjamins R., Chatila R. Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges towards Responsible AI // Information Fusion. 2020. Vol. 58. P. 82‒115.
9. Byrne 2019 ‒ Byrne R.M.J. Counterfactuals in Explaining Artificial Intelligence (XAI): Evidence from Human Reasoning // Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence (IJCAI-19). – California: International Joint Conferences on Artificial Intelligence, 2019. P. 6276–6282.
10. Chen et al. 2020 ‒ Chen M., Wei Z., Huang Z., Ding B., & Li Y. Simple and Deep Graph Convolutional Networks // Proceedings of Machine Learning Research. 2020. Vol. 119. P. 1725–1735.
11. Doshi-Velez, Kortz 2017 ‒ Doshi-Velez F., Kortz M. Accountability of AI Under the Law: The Role of Explanation // Berkman Klein Center Working Group on Explanation and the Law, Berkman Klein Center for Internet & Society Working Paper. 2017. – URL: http://nrs.harvard.edu/urn-3:HUL.InstRepos:34372584
12. Einstein, Podolsky, Rosen 1935 – Einstein A., Podolsky B., Rosen N. Can Quantum-Mechanical Description of Physical Reality Be Considered Complete? // Physical Review. 1935. Vol. 47. No. 10. P. 777–780.
13. Heaven 2020 ‒ Heaven W.D. Why Asking an AI to Explain Itself Can Make Things Worse // MIT Technology Review. 2020. January 29. – URL: https://www.technologyreview.com/2020/01/29/304857/why-asking-an-ai-to-explain-itself-can-make-things-worse/
14. Kaul 2022 – Kaul N. 3Es for Al: Economics, Explanation, Epistemology // Frontiers in Artificial Intelligence. Vol. 5. Article 833238.
15. Leavy et al. 2020 – Leavy S., Meaney G., Wade K., Greene D. Mitigating Gender Bias in Machine Learning Sata Sets // International Workshop on Algorithmic Bias in Search and Recommendation. – Cham: Springer. P. 12–26.
16. Leavy, Siapera, O’Sullivan 2021 – Leavy S., Siapera E., O’Sullivan B. Ethical Data Curation for AI: An Approach based on Feminist Epistemology and Critical Theories of Race // AIES’21: Proceedings of the 2021 AAAI/ ACM Conference on AI, Ethics, and Society. – New York: The Association for Computing Machinery, 2021. P. 695‒703.
17. Lepskiy 2018 – Lepskiy V. Evolution of Cybernetics: Philosophical and Methodological Analysis // Kybernetes. 2018. Vol. 47. No. 2. P. 249–261.
18. Lin, Hung, Huang 2021 – Lin Y.T., Hung T.W., Huang L.T.L. Engineering Equity: How AI Can Help Reduce the Harm of Implicit Bias // Philosophy and Technology. 2021. Vol. 34. No. 1. P. 65‒90.
19. Liu, Balsubramani, Zou 2019 – Liu R., Balsubramani A., Zou J. Learning Transport cost from subset correspondence // arXiv. 2019. – URL: https://arxiv.org/pdf/1909.13203.pdf
20. Madry et al. 2017 – Madry A., Makelov A., Schmidt L., Tsipras D., Vladu A. Towards Deep Learning Models Resistant to Adversarial Attacks // arXiv. 2017. – URL: https://arxiv.org/pdf/1706.06083.pdf
21. Mueller et al. 2019 – Mueller S.T., Hoffman R.R., Clancey W, Klein G. Explanation in Human-AI systems: A Literature Meta-Review Synopsis of Key Ideas and Publications and Bibliography for Explainable AI // DARPA XAI Literature Review. 2019. – URL: https://arxiv.org/pdf/1902.01876.pdf
22. Mueller et al. 2020 ‒ Mueller S. T., Veinott E. S., Hoffman R.R., Klein G., Alam L., Mamun T., Clancey W.J. Principles of Explanation in Human-AI Systems // Association for the Advancement of Artificial Intelligence. 2020. – URL: https://arxiv.org/pdf/2102.04972.pdf
23. Mumford,Anjium 2013 – Mumford S., Anjium R.L. Causation. A Very Short Introduction. – Oxford: Oxford University Press, 2013.
24. Nolin 2016 – Nolin J., Olson N. The Internet of Things and Convenience // Internet Research. 2016. Vol. 26. No. 2. P. 360–376.
25. Orrell, Houshmand 2022 ‒ Orrell D., Houshmand M. Quantum Propensity in Economics // Frontiers in Artificial Intelligence. 2022. Vol. 4. Art. 772294.
26. Polya 1954 ‒ Polya G. Mathematics and Plausible Reasoning. ‒ Princeton, NJ: Princeton University Press, 1954.
27. Raikov 2021 ‒ Raikov A. Cognitive Semantics of Artificial Intelligence: A New Perspective. – Singapore: Springer, 2021.
28. Raikov 2022 ‒ Raikov A. Automating Cognitive Modelling Considering Non-Formalisable Semantics // Intelligent Sustainable Systems (Lecture Notes in Networks and Systems. Vol. 334). – Singapore: Springer, 2022.
29. Rauber, Trasarti, Gianotti 2019 – Rauber A., Trasarti R., Gianotti F. Transparency in Algorithmic Decision Making // ERCIM News. 2019. Vol. 116. P. 10–11. – URL: https://ercim-news.ercim.eu/en116/special/transparency-in-algorithmic-decision-making-introduction-to-the-special-theme
30. The BIG Bell… 2018 – The BIG Bell Test Collaboration. Challenging Local Realism with Human Choices // Nature. 2018. Vol. 557. No. 7704. P. 212–216.
31. True Visions… 2006 – True Visions: The Emergence of Ambient Intelligence / ed. by E.H.L. Aarts, J.L. Encarnação. – Berlin: Springer, 2006.
32. Veličković et al. 2019 ‒ Veličković P., Ying R., Padovano M., Hadsell R., Blundell C. Neural Execution of Graph Algorithms // 33rd Conference on Neural Information Processing Systems (NeurIPS 2019), Vancouver, 2019. – URL: https://grlearning.github.io/papers/88.pdf
33. Wang et al. 2020 ‒ Wang J., Li Z., Long Q., Zhang W., Song G., & Shi C. Learning Node Representations from Noisy Graph Structures // 2020 IEEE International Conference on Data Mining (ICDM). – Los Alamitos, CA: IEEE Computer Society. P. 1310–1315.
Рецензия
Для цитирования:
Райков А.Н. Субъектность объяснимого искусственного интеллекта. Философские науки. 2022;65(1):72-90. https://doi.org/10.30727/0235-1188-2022-65-1-72-90
For citation:
Raikov A.N. Subjectivity of Explainable Artificial Intelligence. Russian Journal of Philosophical Sciences. 2022;65(1):72-90. (In Russ.) https://doi.org/10.30727/0235-1188-2022-65-1-72-90