Жорнокуй, Ю. М.Zhornokui, Yu. M.2024-08-222024-08-222024Жорнокуй, Ю. М. Штучний інтелект: питання відповідальності на сучасному етапі розвитку доктрини [Електронний ресурс] / Ю. М. Жорнокуй // Форум права. - 2024. - № 2(79). - С. 118-127. - Режим доступу: http://forumprava.pp.ua/files/118-127-2024-2-FP-Zhornokui_13.pdf.Жорнокуй, Ю. М. (2024). Штучний інтелект: питання відповідальності на сучасному етапі розвитку доктрини. Форум Права, 79(2), 118– 127. http://doi.org/10.5281/zenodo.10933572.Zhornokui, Yu. M. (2024). Shtuchnyy intelekt: pytannya vidpovidalnosti na suchasnomu etapi rozvytku doktryny [Artificial Intelligence: Issues of Liability at the Current Stage of Doctrine’s Development]. Forum Prava, 79(2), 118– 127. http://doi.org/10.5281/zenodo.10933572.https://dspace.univd.edu.ua/handle/123456789/21980З’ясовано на рівні доктрини питання можливості застосування конструкції "юридична відповідальність" у відносинах з використанням штучного інтелекту. Встановлено, що якщо системи штучного інтелекту, які не мають правосуб’єктності, діють автономно, спираючись на власні когнітивно-поведінські здатності, вони не несуть похідних юридичних наслідків (винагороди чи відповідальності). На сьогодні кращим рішенням буде використання існуючих категорій, при цьому відповідальність за правопорушення буде покладена на користувачів, володільців або виробників, а не на самі системи штучного інтелекту. Законодавець має спосіб вирішити відповідну проблематику: він може заглянути за штучну особистість і добратися до реальної. Прорив вуалі, тобто вихід за рамки юридичної форми і допомога або (частіше) притягнення до відповідальності реальних людей, які стоять за цією формою, є відомою в різних правових системах.Problem statement. Neither the current legislation nor the legal doctrine provide an unequivocal answer until now to the fundamental questions related to the use of artificial intelligence systems within civil turnover. Such problems are the legal personality of artificial intelligence, intellectual rights to both the artificial intelligence systems themselves and the products created by them; liability in the context of using artificial intelligence systems and others. The solution of this problem depends on understanding the artificial intelligence systems as objects or giving them the status of a subject of legal relations. Experts, actively discussing the possibility of granting legal personality to artificial intelligence systems, comparing them mainly with legal entities as artificially created subjects, did not find answers to the question on legal consequences of recognizing certain or many rights and obligations by artificial intelligence within the framework of legal research. One of these consequences is liability, whose imposition on the relevant systems within the existing legal field is currently quite problematic. Purpose of the article is to clarify the issue of the possibility to apply the construction of "legal liability" at the doctrinal level within the relations with the use of artificial intelligence. Methods: analysis that made it possible to find out the current status of legal doctrine in regard to understanding the essence of artificial intelligence, the possibility of recognizing its legal personality and, accordingly, the possibility of bringing it to liability; comparative and legal, which made it possible to compare the categories of "legal entity" and "artificial intelligence" as artificially created constructions actively used in the legal field. Results: it has been established that if artificial intelligence systems, which do not have legal personality, act autonomously relying on their own cognitive-behavioural abilities, they do not bear derivative legal consequences (rewards or liability). Conclusions. Nowadays, the best solution would be to use the existing categories, where liability for violations of law being placed on users, owners or manufacturers, rather than on the artificial intelligence systems themselves. The legislator has the way to solve the relevant problem: he can look beyond the artificial personality and get to the real one. Breaking the veil, that is, going beyond the legal form and helping or (more often) prosecuting real people being behind this form, is known in various legal systems.Выяснен на уровне доктрины вопрос о возможности применения конструкции "юридическая ответственность" в отношениях с использованием искусственного интеллекта. Установлено, что если не имеющие правосубъектности системы искусственного интеллекта действуют автономно, опираясь на собственные когнитивно-поведенческие способности, они не несут производных юридических последствий (вознаграждения или ответственности). На сегодняшний день лучшим решением будет использование существующих категорий, при этом ответственность за правонарушения будет возложена на пользователей, владельцев или производителей, а не на сами системы искусственного интеллекта. Законодатель способен решить соответствующую проблематику: он может заглянуть за искусственную личность и добраться до реальной. Прорыв вуали, то есть выход за рамки юридической формы и помощь или (чаще) привлечение к ответственности реальных людей, стоящих за этой формой, известен в различных правовых системах.ukштучний інтелектюридична особаправосуб’єктністьінтелектуальна власністьвідповідальністьпорушення правсуб’єктоб’єктшкодаartificial intelligencelegal entitylegal personalityintellectual propertyliabilityviolation of rightssubjectobjectdamageискусственный интеллектюридическое лицоправосубъектностьинтеллектуальная собственностьответственностьнарушение правсубъектобъектвредШтучний інтелект: питання відповідальності на сучасному етапі розвитку доктриниArtificial intelligence: issues of liability at the current stage of doctrine’s developmentArticlehttp://forumprava.pp.ua/files/118-127-2024-2-FP-Zhornokui_13.pdfhttps://orcid.org/0000-0001-9669-6062