ევროკავშირის ხელოვნური ინტელექტის აქტი (EU AI Act) - რა უნდა იცოდეთ მსოფლიოში AI-ის გამოყენების პირველ რეგულაციაზე

სიახლეები | ინტერნეტი და ინოვაციები | სტატია 20 დეკემბერი 2023

2023 წლის 8 დეკემბერს ევროკავშირის კანონმდებლები 40-საათიანი მოლაპარაკების შემდეგ საბოლოოდ შეთანხმდნენ ევროკავშირის ხელოვნური ინტელექტის აქტის (შემდგომში: EU AI Act) მიღებაზე. ამგვარად, დასრულდა ორ წელიწადნახევრიანი პოლიტიკური დებატი მსოფლიოში ხელოვნური ინტელექტის გამოყენების პირველ ყოვლისმომცველ რეგულაციაზე. ზოგადად, 2023 წელს შეგვიძლია, ხელოვნური ინტელექტის რეგულირების წელიც ვუწოდოთ, რადგან წელს პირველად G7-ის შეხვედრაზე მსოფლიო ლიდერებმა ხელოვნური ინტელექტის რეგულირების საკითხი განიხილეს [1]; თეთრმა სახლმა პირველად ხელოვნური ინტელექტის გამოყენების აღმასრულებელი განკარგულება გამოსცა [2]; ლონდონში კი პირველად გაიმართა მსოფლიო მასშტაბის სამიტი, რომელიც ექსკლუზიურად ხელოვნურ ინტელექტს მიეძღვნა [3]. EU AI Act ყველა ზემოჩამოთვლილი მოვლენისგან იმით განსხვავდება, რომ იგი სავალდებულოა და ვრცელდება მსოფლიოში მეორე ყველაზე დიდ ეკონომიკაზე - ევროკავშირის ბაზარზე. მიღებულ აქტს მსოფლიოში ხელოვნური ინტელექტის რეგულირების კუთხით, მონაცემთა დაცვის ზოგადი რეგულაციის (GDPR) მსგავსად, ძალიან დიდი ზეგავლენა ექნება. 

 

ევროპის კავშირის კანონმდებლების თქმით, აქტის მთავარი მიზანია, ხელოვნური ინტელექტის ის სისტემები, რომლებსაც ევროკავშირში იყენებენ, აგებული იყოს უსაფრთხოებაზე, ფუნდამენტურ უფლებებსა და ევროკავშირის ღირებულებებზე [4].

 

შეთანხმების მთავარი ნაწილები:

 

დეფინიცია და გავრცელების მასშტაბი

 

იმისათვის, რომ ხელოვნური ინტელექტის რეგულაცია ყოფილიყო მკაფიო და არ მოეცვა სხვა პროგრამული უზრუნველყოფის სისტემებიც, ევროკავშირი ხელოვნური ინტელექტის კონკრეტულ დეფინიციაზე შეთანხმდა. რისთვისაც ეკონომიკური თანამშრომლობისა და განვითარების ორგანიზაციის (OECD) მიერ შემოთავაზებული AI-ის განმარტება გამოიყენეს:


“ხელოვნური ინტელექტის სისტემა არის მანქანურ ტექნოლოგიებზე დაფუძნებული სისტემა, რომელიც აშკარა თუ ნაგულისხმევი მიზნებისთვის შეყვანილ მონაცემებზე დაყრდნობით ადგენს, როგორ დააგენერიროს ისეთი მონაცემები, როგორებიცაა პროგნოზი, კონტენტი, რეკომენდაცია ან გადაწყვეტილებები, რომლებსაც ფიზიკურ თუ ვირტუალურ გარემოზე გავლენის მოხდენა შეუძლიათ. სხვადასხვა AI სისტემა ჩაშვების შემდეგ განსხვავდება თავისი ავტონომიურობისა და ადაპტირების ხარისხით” [5].

 

ხელოვნური ინტელექტის აქტი ვრცელდება მხოლოდ ევროკავშირის მასშტაბით, წევრ ქვეყნებზე და მოიცავს როგორც საჯარო, ისე კერძო სექტორს. თუმცა არის გამონაკლისებიც. ხელოვნური ინტელექტის აქტი არ ვრცელდება ექსკლუზიურად სამხედრო, თავდაცვითი, ეროვნული უსაფრთხოებისა და კვლევისა და განვითარებისთვის (R&D) შექმნილ AI სისტემებზე. აქტი ზოგიერთ AI სისტემის გამოყენებას კრძალავს, მაგალითად, ბიომეტრიულ სისტემებს, რომლებიც სენსიტიურ მახასიათებლებსა და მონაცემებს იყენებენ; AI სისტემებს, რომლებიც ადამიანის ქცევებით მანიპულირებენ; სამუშაო ადგილებსა თუ საგანმანათლებლო დაწესებულებებში გამოყენებულ ემოციების ამომცნობ სისტემებს. თუმცა, თუ საქმე ეროვნულ უსაფრთხოებას ეხება, მაშინ, მაგალითად, ძალოვან უწყებებს შეუძლიათ, საჯარო სივრცეში ბიომეტრიული იდენტიფიკაციის სისტემა გამოიყენონ დანაშაულის გამოძიებისა და/ან პრევენციის მიზნით. ევროკავშირმა მკაცრად განსაზღვრა 16 ტიპის დანაშაული, რომელთა შემთხვევაშიც სასამართლოს აქვს უფლებამოსილება გასცეს ზემოაღნიშნული AI სისტემების გამოყენების უფლება. ამ დანაშაულთა შორისაა: ტერორიზმი, ტრეფიკინგი და ბავშვების სექსუალური ექსპლოატაცია [6].

 

აღსანიშნავია, რომ აქტის ამ გამონაკლისების განსაკუთრებული მხარდამჭერი საფრანგეთი იყო. გერმანიასთან და იტალიასთან ერთად, საფრანგეთი ზოგადად ამ აქტის მიღებას ეწინააღმდეგებოდა, რადგან, ამ ქვეყნების აზრით, მსგავსი აქტი შეაფერხებს ევროკავშირში ინოვაციებს, სტარტაპ კომპანიების ზრდასა და განვითარებას, რაც საბოლოო ჯამში დასრულდება იმით, რომ მათი ეროვნული კომპანიები ხელოვნური ინტელექტის დარგში კონკურენციას ვეღარ გაუწევენ ამერიკულ, ბრიტანულ და ჩინურ კომპანიებს [7].

 

AI სისტემების კლასიფიკაცია

 

EU AI Act-მა, რისკების მიხედვით, ხელოვნური ინტელექტის სისტემების სამი ძირითადი ჯგუფი გამოყო:

 

ლიმიტირებული რისკი: ისეთი AI სისტემები, როგორებიცაა, მაგალითად, ჩეტბოტები, რომლებიც აგენერირებენ ტექსტებს, ფოტოებს, ლიმიტირებულ რისკს უქმნიან ადამიანებს, ამიტომ, აქტის თანახმად, მათ „მსუბუქი გამჭვირვალობის” ვალდებულება აქვთ. კერძოდ, მსგავსი სისტემების შემქმნელებმა საკუთარ პროდუქტსა და კონტენტს მინიშნება უნდა გაუკეთონ, რომ ხელოვნური ინტელექტის მიერაა დაგენერირებული. ამის ერთ-ერთი მიზანი მომხმარებლის ინფორმირებაა [8].

 

მაღალი რისკი: გაცილებით მკაცრადაა დარეგულირებული ადამიანების უსაფრთხოებისა და ჯანმრთელობისთვის მაღალი რისკის შემცველი AI სისტემები. მათ გამჭვირვალობასთან ერთად ქვემოთ ჩამოთვლილი მოთხოვნების დაკმაყოფილებაც ევალებათ:

 

- ფუნდამენტურ უფლებებზე გავლენის შეფასება/შესაბამისობის შეფასება;

 

 

- AI სისტემის რეგისტრაცია ევროკავშირის მონაცემთა საჯარო ბაზაში;

 

 

- რისკებისა და ხარისხის მართვის სისტემების დანერგვა;

 

 

- მონაცემთა მართვა (მაგალითად: მიკერძოების შემცირება); 

 

 

- გამჭვირვალობა (მაგ.: გამოყენების ინსტრუქციები, ტექნიკური დოკუმენტაცია);

 

 

- ადამიანის ზედამხედველობა (მაგ.: ე.წ. Human in the loop, რაც გულისხმობს, რომ არცერთი სისტემა ადამიანის ზედამხედველობის გარეშე არ უნდა ფუნქციონირებდეს);

 

 

- სიზუსტე, მდგრადობა და კიბერუსაფრთხოება (მაგ.: ტესტირება და მონიტორინგი)

 

 

ასეთ სისტემებს განეკუთვნება:

 

 

- სამედიცინო მოწყობილობები;

 

 

- სატრანსპორტო საშუალებებში ჩაშენებული სისტემები;

 

 

- რეკრუტირებასა და ადამიანური რესურსების მართვაში გამოყენებული  სისტემები;

 

 

- საგანმანათლებლო და პროფესიულ ტრენინგებში გამოყენებული სისტემები;

 

 

- მომსახურების მიწოდებაში გამოყენებული სისტემები (მაგ: დაზღვევა, საბანკო სერვისები)

 

 

- კრიტიკული ინფრასტრუქტურის განკარგვისთვის გამოყენებული სისტემები (მაგ.: წყალი, გაზი)

 

 

- ემოციების ამომცნობი სისტემები;

 

 

- ბიომეტრიული სისტემები;

 

 

- ძალოვანი უწყებების, საზღვრის კონტროლის, მიგრაციისა და ლტოლვილთა სისტემები;

 

 

- მართლმსაჯულების სისტემაში / ადმინისტრირებაში გამოყენებული სისტემები.

 

ამგვარად, დიდ ტექ კომპანიებს ევროკავშირის ბაზარზე ამ რეგულაციებთან შესაბამისობაზეც მოუწევთ მუშაობა, თუმცა ხარისხობრივად რამდენად მკაცრი იქნება მათთვის ეს რეგულაციები ნაწილობრივ საკუთრივ ამ კომპანიებზეა დამოკიდებული. ევროკავშირის კანონმდებლებმა რეგულაციების სიმკაცრე ხელოვნური ინტელექტის სიძლიერის მიხედვით განსაზღვრეს. ეს კი, თავის მხრივ, განისაზღვრება იმ კომპიუტერული სიმძლავრით, რომელიც AI-ის სისტემების შესაქმნელად და განსავითარებლად არის საჭირო. გამომდინარე იქიდან, რომ მხოლოდ კომპანიებმა იციან, რა მოცულობის კომპიუტერული სიმძლავრე დასჭირდებათ მათი AI მოდელების განვითარებისთვის, ამიტომ ნაწილობრივ მათზეა დამოკიდებული, თუ რამდენად მკაცრ რეგულაციებს დაუქვემდებარებენ საკუთარ კომპანიას. მსგავსი დაშვება ევროკავშირის მხრიდან კერძო სექტორის მიმართ  ერთგვარი კომპრომისი გახლდათ [9].

 

მაღალი რისკის კატეგორიაში ექცევა ასევე Foundational Model AI-იც - ფუნდამენტური მოდელი, რომელზე დაყრდნობითაც ხელოვნური ინტელექტის აპლიკაციები იგება. ის მოიცავს მანქანური სწავლების ალგორითმებს, სტატისტიკურ მოდელებს და სხვა ფუნდამენტურ კონცეფციებს, რომლებიც ისეთ კომპლექსურ AI სისტემებში შედის, როგორიც მაგენერირებელი ხელოვნური ინტელექტია (Generative AI).

 

დაუშვებელი რისკი: AI სისტემები, რომლებიც ადამიანის ფუნდამენტურ უფლებებს მკაფიოდ უქმნიან საფრთხეს, მკაცრად არის აკრძალული. ამ ჯგუფს განეკუთვნება:

 

 

- სოციალური ქულების სისტემა; 

 

 

- სამუშაო ადგილებსა და საგანმანათლებლო დაწესებულებებში ემოციების ამომცნობი სისტემები;

 

 

- AI, რომლიც ადამიანის ქცევებით მანიპულირებს;

 

 

- სახის ამოცნობის მიზნით ადამიანების სახის გამოსახულებების არამიზნობრივი შეგროვება;

 

 

- ბიომეტრიული სისტემები;

 

 

- დანაშაულის პროგნოზირების სისტემები;

 

 

- საჯარო სივრცეში ძალოვანი უწყებების მიერ რეალურ დროში ბიომეტრიული მონაცემების გამოყენება.



თუმცა, როგორც ზემოთ აღვნიშნეთ, აქტის მიხედვით, სასამართლოს ნებართვით, ძალოვან უწყებებს მკაცრად განსაზღვრული დანაშაულების გამოძიების თუ პრევენციის მიზნით, ზოგიერთი აკრძალული AI აპლიკაციის გამოყენება შეუძლიათ.

 

აქტის აღსრულების მექანიზმები

 

აქტის დახვეწას, საბოლოო ტექსტსა და ტექნიკურ დეტალებზე შეთანხმებას კიდევ შეიძლება რამდენიმე კვირა/თვე დასჭირდეს. ამის შემდეგ აქტი ევროპარლამენტმა და ევროკავშირის წევრი ქვეყნების ეროვნულმა პარლამენტებმა უნდა დაამტკიცონ, რის შემდეგაც ის ძალაში შევა. EU AI Act-ის მიხედვით, ზოგიერთი მუხლი (განსაკუთრებით ისინი, რომლებიც დაუშვებელი რისკის AI-ს ეხება) ძალაში რატიფიცირებიდან 6 თვეში შევა, ხოლო მთლიანი აქტი სავალდებულო მხოლოდ 2025 წლიდან გახდება და კომპანიებს ექნებათ 2 წელი, რათა ევროკავშირის ახალი სტანდარტები დააკმაყოფილონ. 

 

აქტის აღსრულების ეფექტური მონიტორინგის მიზნით, ევროკომისიაში შეიქმნა ახალი უწყება - AI ოფისი, რომელსაც ევროკავშირის მასშტაბით აქტის აღსრულების კონტროლი დაევალა. ეროვნულ დონეზე ამის კომპეტენცია მთავრობის შესაბამის უწყებებს ექნებათ. მთავრობებსა და ევროკავშირს შორის კოორდინაციისთვის შეიქმნა AI საბჭო, რომელიც წევრი ქვეყნების წარმომადგენლებისგან შედგება და იქნება ერთგვარი საკოორდინაციო პლატფორმა, რომელიც წევრ ქვეყნებს აქტის მათ ეროვნულ კონტექსტსა და კანონმდებლობაზე მორგებაში დაეხმარება. გარდა ამისა, შეიქმნება დამოუკიდებელ ექსპერტთა სამეცნიერო პანელი, რომელიც ტექნიკურ, მეთოდოლოგიურ საკითხებში (განსაკუთრებით ზოგადი დანიშნულების ხელოვნური ინტელექტის (GPAI) მიმართულებით) AI ოფისის მრჩევლის როლს მოირგებს. მრჩეველთა ფორუმი კი, რომელიც ყველა დაინტერესებულ მხარეს აერთიანებს, მათ შორის, არასამთავრობო ორგანიზაციებს, კერძო სექტორს, აკადემიას, AI ოფისს ვიწრო ექსპერტულ რჩევას, რეკომენდაციას მიაწვდის. ამგვარად, ყველა დაინტერესებული მხარის ინტერესი იქნება გათვალისწინებული. 

 

აქტის მოთხოვნების არშესრულების შემთხვევაში დაწესებული ჯარიმები საკმაოდ მკაცრია და კომპანიის სიდიდიდან და დარღვევის სიმწვავიდან გამომდინარე კომპანიის გლობალური გაყიდვების ბრუნვის 1.5%-დან 7%-მდე მერყეობს [11]. 

 

EU AI Act და საქართველო

 

ხელოვნური ინტელექტის სისტემების დანერგვა საქართველოს საჯარო სექტორში განვითარების საწყის ეტაპზეა, თუმცა, კერძო სექტორში უკვე მრავლად გვხვდება აღნიშნული ტექნოლოგიის გამოყენების წარმატებული მაგალითები, დისტანციური ვერიფიკაციის სისტემები, დოკუმენტების ავტომატური იდენტიფიკაციის სისტემები, კომუნიკაციის ავტომატიზაციის პროგრამები და მრავალი სხვა საშუალებები. თუმცა, IDFI-ის 2021 წლის კვლევის - ხელოვნური ინტელექტის სისტემების გამოყენება საქართველოში - მიხედვით, ხელოვნური ინტელექტის სისტემების მარეგულირებელი ნორმატიული აქტები და ეთიკური ნორმების განმსაზღვრელი დოკუმენტები არ არსებობს. გამონაკლისია მხოლოდ საქართველოს ეროვნული ბანკის პრეზიდენტის ბრძანება მონაცემებზე დაფუძნებული სტატისტიკური, ხელოვნური ინტელექტის და მანქანური სწავლების მოდელების რისკების მართვის დებულების დამტკიცების თაობაზე, რომელიც ფინანსურ სექტორში ხელოვნური ინტელექტის გამოყენებას არეგულირებს.

 

საქართველოში საკანონმდებლო დონეზე არ არსებობს ხელოვნური ინტელექტის დეფინიცია, რაც არა მარტო ამ სფეროს რისკების მართვასა და რეგულირებას, არამედ ზოგადად მის კვლევას ართულებს. 

 

საქართველოს ევროინტეგრაციის გზაზე მნიშვნელოვანი იქნება ამ მიმართულებით ევროკავშირის რეგულაციებისა და დირექტივების გათვალისწინება. შესაბამისად, მნიშვნელოვანია ქვეყანამ უკვე დღეს დაიწყოს ხელოვნური ინტელექტის მარეგულირებელ სამართლებრივ ბაზაზე მუშაობა, რის დროსაც გათვალისწინებული უნდა იყოს ევროკავშირის AI აქტის მთავარი პრინციპები. 

 

 

სხვა მასალები ამ თემაზე
სიახლეები

სპეციალური საგამოძიებო სამსახურის არასათანადო რეაგირება საპოლიციო ძალების მიერ განხორციელებულ ძალადობრივ ქმედებებზე

09.12.2024

IDFI-ს მიმართულების ხელმძღვანელი, ანტონ ვაჭარაძე, ჩეხეთში გამართულ კონფერენციაზე “საბჭოთა და რუსული დივერსია ევროპის წინააღმდეგ”

18.11.2024

2024 წლის საპარლამენტო არჩევნებმა საქართველოში ავტოკრატიული ტენდენციები გაამყარა - V-Dem institute-ის შეფასება

13.11.2024

სასამართლოს აქტების პროაქტიული გამოქვეყნება: კანონმდებლობა და პრაქტიკა

04.11.2024
განცხადებები

IDFI-ის განცხადება გიორგი დავითურის უკანონო დაკავების შესახებ

02.12.2024

სტრასბურგის სასამართლომ განსხვავებული აზრის მქონე მოსამართლის სასამართლო სისტემიდან განდევნა დაადასტურა

11.11.2024

მოვუწოდებთ პროკურატურას არჩევნების გაყალბება გამოიძიოს და არა დამკვირვებელი ორგანიზაციების საქმიანობა

06.11.2024

სასამართლო ხელისუფლებამ სისტემურ საარჩევნო დარღვევებზე თვალი არ უნდა დახუჭოს

05.11.2024
ბლოგპოსტები

რუსეთის სპეცსამსახურების აქტიური ღონისძიება - ალექსანდრე მალკევიჩი საქართველოში

29.11.2024

ინტერმუნიციპალური საქმიანობის გაძლიერება საქართველოში

21.10.2024

საგზაო-სატრანსპორტო შემთხვევების პრევენციის ინსტიტუციური მექანიზმები

21.10.2024

კრიპტოვალუტის საქართველოს ფინანსურ სისტემაში ინტეგრირების გამოწვევები და სტრატეგიული მიდგომა ბლოკჩეინისა და უძრავი ქონების მიმართ კორუფციის წინააღმდეგ საბრძოლველად

21.10.2024