2024 წლის ივნისში ხელოვნური ინტელექტის მმართველობის გლობალურმა ცენტრმა (Global Center on AI Governance) პასუხისმგებლიანი ხელოვნური ინტელექტის (GIRAI) გლობალური ინდექსი გამოაქვეყნა. ეს არის პირველი ინდექსი მსოფლიოში, რომელიც პასუხისმგებლიანი ხელოვნური ინტელექტის საზომ ინდიკატორებს ადგენს და მსოფლიოს გარშემო მის მდგომარეობას აფასებს. აღნიშნული კვლევა ეფუძნება პასუხისმგებლიან AI-ზე დღემდე შეგროვებულ ყველაზე ყოვლისმომცველ, გლობალურ მონაცემთა ბაზას. ინდექსის პირველი გამოცემა 138 ქვეყანას ფარავს, მათ შორის, საქართველოს, რომელმაც 100 ქულიდან 17.83 აიღო და რეიტინგში მე-60 ადგილი დაიკავა.
ინდექსის შესახებ
კვლევის მიხედვით, პასუხისმგებლიანი AI გულისხმობს ხელოვნური ინტელექტის დაგეგმვას, განვითარებას, გამოყენებასა და მართვას იმგვარად, რომ ადამიანის უფლებები იყოს დაცული და, AI-ის სასიცოცხლო ციკლის ყველა ეტაპზე, ხელოვნური ინტელექტის ეთიკური პრინციპები იყოს გათვალისწინებული. ამგვარი მიდგომა AI-ის ეროვნულ ეკოსისტემაში ჩართული ყველა მხარისგან მოითხოვს, გადაწყვეტილების მიღებისას პასუხისმგებლობა აიღონ ხელოვნური ინტელექტის სოციალურ შედეგებზე და მის გავლენაზე ადამიანსა და გარემოზე.
GIRAI პასუხისმგებლიანი AI-ის 19 თემატურ საკითხს აფასებს, რომლებიც დაჯგუფებულნი არიან 3 ძირითადი მიმართულებით:
- ადამიანის უფლებები და AI
- პასუხისმგებლიანი AI მმართველობა
- პასუხისმგებლიანი AI შესაძლებლობები
თითოეული თემატური საკითხი პასუხისმგებლიანი AI ეკოსისტემის 3 განსხვავებულ ბლოკს აფასებს:
- სამთავრობო დოკუმენტები (კანონები, ბრძანებები, საკანონმდებლო ინიციატივები, პოლიტიკები, სტრატეგიები);
- სამთავრობო ინიციატივები
- არასამთავრობო (კერძო სექტორი, აკადემია და სამოქალაქო ორგანიზაციები) ინიციატივები
კვლევა ეფუძნება პირველად წყაროებს, რომლებიც 138 ქვეყანაში ეროვნული მკვლევრების მიერ შეგროვდა და დამუშავდა. კვლევაში გამოყენებული სამთავრობო და არასამთავრობო ინიციატივები განხორციელდა 2021 წლის ნოემბრიდან 2023 წლის ნოემბრამდე პერიოდში.
კვლევის ფარგლებში ხელოვნური ინტელექტის მმართველობის გლობალური ცენტრი მსოფლიოს 16 რეგიონულ ჰაბთან, მათ შორის, ინფორმაციის თავისუფლების განვითარების ინსტიტუტთან თანამშრომლობდა, რომელიც აღმოსავლეთ ევროპასა და ცენტრალურ აზიაზე (12 ქვეყანა) იყო პასუხისმგებელი.
IDFI-ის წარმომადგენლები უშუალოდ იყვნენ ჩართულნი კვლევის მეთოდოლოგიის დახვეწასა და პილოტირებაში.
გლობალური მიგნებები და ტენდენციები
AI-ს მიმართულებით მმართველობითი ჩარჩოს არსებობა აუცილებლად არ ნიშნავს პასუხისმგებლიანი AI-ის პრინციპების გათვალისწინებას.
შეფასებულ ქვეყნებში ხელოვნური ინტელექტის ეროვნული სტრატეგია არის ძირითადი, თუ არა ერთადერთი, დოკუმენტი, რომელიც AI-ის გამოყენებას ეხება. კერძოდ, კვლევაში ჩართული ქვეყნების 39%-ს ჰქონდა ეროვნული AI სტრატეგია, რომელიც ეროვნულ დონეზე განსაზღვრავდა AI-ის განვითარების, გამოყენებისა და მართვის საკითხებს, მაგრამ მათგან ძალიან მცირე ნაწილი ითვალისწინებდა პასუხისმგებლიანი AI-ის პრინციპებს.
შეზღუდულადაა წარმოდგენილი ადამიანის უფლებების დაცვის მექანიზმები
კვლევამ გამოავლინა, რომ AI-ის რისკებისგან დაცვის მექანიზმები ცოტა ქვეყანას აქვს დანერგილი. ასეთ მექანიზმებში შედის: AI-ის გავლენის შეფასება (ჰქონდა 43 ქვეყანას), რომელიც ზომას AI-ის რეალურ და პოტენციურ საფრთხეებს; ზიანის ანაზღაურებისა და აღდგენის მექანიზმები (დაფიქსირდა 35 ქვეყანაში) და საჯარო შესყიდვების სახელმძღვანელო, რომელიც საჯარო სექტორის მიერ AI-ის შესყიდვას/გამოყენებას არეგულირებს.
საერთაშორისო თანამშრომლობა თანამედროვე AI პრაქტიკების ქვაკუთხედია
მსოფლიოს გარშემო, სხვადასხვა რეგიონში საერთაშორისო თანამშრომლობის თემატურმა საკითხმა ყველაზე მაღალი ქულა მიიღო. ერთ-ერთი მთავარი, ძირითადი საერთაშორისო დოკუმენტი, რომელსაც კვლევაში მონაწილე 138-ივე ქვეყანა არის მიერთებული, არის “UNESCO-ს რეკომენდაციები ეთიკაზე ხელოვნურ ინტელექტში”.
გენდერული თანასწორობის საკითხების არასათანადო გათვალისწინება რჩება მნიშვნელოვან გამოწვევად პასუხისმგებლიანი ხელოვნური ინტელექტის განვითარების გზაზე
გენდერული თანასწორობა და AI - ერთ-ერთი თემატური საკითხია, რომელმაც ყველაზე დაბალი ქულები მიიღო. კვლევამ გამოავლინა, რომ მხოლოდ 24 ქვეყანის სამთავრობო დოკუმენტები ითვალისწინებს ამ თემას; 37 ქვეყნის მთავრობას ჰქონდა ცალკეული ინიციატივა გენდერულ თანასწორობასა და AI-ს შესახებ; 67 ქვეყნის არასამთავრობო სექტორმა (ძირითადად აკადემია და სამოქალაქო საზოგადოება) განახორციელა ინიციატივა ამ მიმართულებით.
ხელოვნურ ინტელექტის გამოყენების მაგალითები არასათანადოდ პასუხობენ ინკლუზიურობისა და თანასწორობის ძირითად გამოწვევებს
იმ თემატურმა საკითხებმა, რომლებიც მარგინალიზებულ ან არასაკმარისად წარმოდგენილ ჯგუფებს ეხება, საკმაოდ დაბალი ქულები მიიღო, რაც ხაზს უსვამს, რომ მთავრობები ინკლუზიურობისა და თანასწორობის საკითხებს ხელოვნურ ინტელექტში არასათანადოდ ითვალისწინებენ.
AI ეკონომიკებში დასაქმებული ადამიანები სათანადოდ არ არიან დაცულები
კვლევაში ჩართული ქვეყნებიდან მხოლოდ 33-ს ჰქონდა სამთავრობო დოკუმენტ(ებ)ი, რომლებიც ხელოვნური ინტელექტის კონტექსტში შრომის თავისუფლებასა და შრომის უსაფრთხოებას არეგულირებდა. ამ მიმართულებით შედარებით კარგი შედეგი ევროპისა და ახლო აღმოსავლეთის რეგიონებმა აჩვენეს.
პასუხისმგებლიანი ხელოვნური ინტელექტი უნდა მოიცავდეს კულტურულ და ენობრივ მრავალფეროვნებას
კულტურული და ენობრივი მრავალფეროვნება ხელოვნურ ინტელექტში მნიშვნელოვანია მრავალფეროვნების წახალისების, კულტურული მემკვიდრეობისა და იმ ენების შენარჩუნება-დაცვისთვის, რომლებზეც ონლაინ კონტენტი შეზღუდული ოდენობითაა ხელმისაწვდომი. კვლევის შედეგებით, ამ თემატურმა საკითხმა ერთ-ერთი ყველაზე დაბალი ქულა მიიღო.
ამ მიმართულებით გამოვლენილი საინტერესო ინიციატივებიდან ერთ-ერთი მექსიკის კულტურის სამინისტროს კვლევითი პროექტი Woolaroo-ა, რომელიც მანქანური სწავლების დახმარებით, მიზნად ისახავს გაქრობის პირას მყოფი მექსიკის ადგილობრივი ენების შენარჩუნებას.
არსებობს მნიშვნელოვანი გამოწვევები ხელოვნური ინტელექტის სისტემების უსაფრთხოებისა და სანდოობის უზრუნველყოფის კუთხით
შეფასებული ქვეყნების მხოლოდ 28%-ს (38 ქვეყანა) აქვს გადადგმული ქმედითი ნაბიჯები ხელოვნური ინტელექტის სისტემების უსაფრთხოების უზრუნველსაყოფად. ასევე, ქვეყნების მხოლოდ 25%-ს აქვს სავალდებულო, სამთავრობო დოკუმენტები, რომლებიც არეგულირებენ AI-ის ტექნიკურ უსაფრთხოებას და აწესებენ უსაფრთხოების სტანდარტებს.
უნივერსიტეტები და სამოქალაქო საზოგადოება მნიშვნელოვან როლს თამაშობენ პასუხისმგებლიანი ხელოვნური ინტელექტის განვითარებაში
კვლევამ გამოავლინა, რომ უნივერსიტეტები და არასამთავრობო ორგანიზაციები ყველაზე აქტიურები არიან პასუხისმგებლიანი AI-ის მიმართულებით. მსგავსი ტენდენცია მსოფლიოს ყველა რეგიონში ფიქსირდება. ხშირად აღნიშნული სფეროების წარმომადგენლები ახორციელებენ ისეთ აქტივობებს იმ თემატურ საკითხებზე (მაგ.: გენდერული თანასწორობა, კულტურული და ენობრივი მრავალფეროვნება და ა.შ.), რომლებზეც სხვა დაინტერესებული მხარეები არ იჩენენ ინიციატივას.
საქართველოს შედეგები
პასუხისმგებლიანი ხელოვნური ინტელექტის გლობალური ინდექსის 2024 წლის მონაცემებით, საქართველომ 100-დან 17.83 ქულა დააგროვა და 138 ქვეყნიდან მე-60 ადგილზე გავიდა.
ინდექსის ქულა |
ბლოკის ქულა |
მიმართულების ქულა |
||||
სამთავრობო დოკუმენტები |
სამთავრობო ინიციატივები |
არასამთავრობო ინიციატივები |
ადამიანის უფლებები და AI |
პასუხისმგებლიანი AI მმართველობა |
პასუხისმგებლიანი AI შესაძლებლობები |
|
17.83 |
28.30 |
7.93 |
16.69 |
17.20 |
11.03 |
20.60 |
ყველაზე დაბალი შეფასება საქართველომ პასუხისმგებლიანი AI მმართველობაში მიიღო (11.03/100). ამის მთავარი მიზეზია ის გარემოება, რომ საქართველოს არ აქვს ეროვნული AI პოლიტიკის არცერთი დოკუმენტი. სამთავრობო დოკუმენტი, რომელიც ამ მიმართულების თემატური საკითხების ნაწილს (5/9) ფარავს, არის საქართველოს ეროვნული ბანკის პრეზიდენტის ბრძანება “მონაცემებზე დაფუძნებული სტატისტიკური, ხელოვნური ინტელექტის და მანქანური სწავლების მოდელების რისკების მართვის დებულების დამტკიცების თაობაზე”. თუმცა ის მხოლოდ ფინანსურ და საბანკო სექტორს არეგულირებს.
ზიანის ანაზღაურებასა და აღდგენაზე წვდომის უფლების მიმართულებით მსოფლიოში დაფიქსირებული დაბალი შედეგების ფონზე საქართველოში ამ კუთხით საგულისხმოა საქართველოს კანონი პერსონალურ მონაცემთა დაცვის შესახებ, რომელიც მოიცავს მუხლს ავტომატიზებულად მიღებული გადაწყვეტილების გასაჩივრების საშუალების შესახებ (მუხლი 19). მართალია, კანონი ცალსახად არ ახსენებს ხელოვნურ ინტელექტს, თუმცა “ავტომატური საშუალებები”, თავისი ზოგადი ბუნებიდან გამომდინარე, ავტომატიზირებულ ტექნოლოგიებთან ერთად, ხელოვნურ ინტელექტსაც გულისხმობს. საყურადღებოა, რომ ამ შემთხვევაშიც საკითხი მხოლოდ პერსონალური მონაცემების დაცვას ეხება და არა AI სისტემებით გამოწვეული ხარვეზების გამოსწორებას.
შედარებით უკეთესი შედეგი საქართველომ ადამიანის უფლებებისა და AI-ის მიმართულებით აჩვენა. ქვეყანის მაღალი ქულა ძირითადად არასამთავრობო სექტორის (აკადემია და სამოქალაქო საზოგადოება) აქტიურობამ განაპირობა, რადგან ამ მიმართულებით სახელმწიფოს ინიციატივების ნაკლებობა დაფიქსირდა. AI-ის მიმართულებით არსებული სამთავრობო დოკუმენტები 7-დან მხოლოდ 2 თემატურ საკითხს ფარავს: ეროვნული ბანკის პრეზიდენტის ზემოაღნიშნული ბრძანება ეხება მიკერძოებისა და დისკრიმინაციის საკითხებს, ხოლო პერსონალურ მონაცემთა დაცვის შესახებ კანონი ფარავს პერსონალური მონაცემებისა და კონფიდენციალურობის დაცვის ცალკეულ მექანიზმებს.
საქართველომ შედარებით მაღალი შეფასება პასუხისმგებლიან AI შესაძლებლობებშიც მიიღო. ქვეყანა ხელოვნური ინტელექტის ეთიკაზე UNESCO-ს რეკომენდაციებს არის მიერთებული, რაც ამ მიმართულების ერთ-ერთ საკითხს, საერთაშორისო თანამშრომლობას, ფარავს.
GIRAI კვლევამ გამოავლინა, რომ საქართველოში პასუხისმგებლიანი ხელოვნური ინტელექტის განვითარების მიმართულებით განსაკუთრებით არასამთავრობო სექტორი, კერძოდ, აკადემია და სამოქალაქო ორგანიზაციები აქტიურობენ. მართალია, კერძო სექტორში ხელოვნური ინტელექტის შექმნის/გამოყენების არაერთი ინიციატივაა, თუმცა AI-ის ეთიკურ პრინციპებს ნაკლებად ითვალისწინებენ, რაც მარეგულირებელი ნორმების არარსებობითაც შეიძლება აიხსნას.
კვლევის მიხედვით, მწირია AI-ის სამთავრობო ინიციატივები. AI-ის მიმართულებით სამთავრობო სტრატეგიული დოკუმენტების არარსებობის ფონზე, გამოირჩა ეროვნული ბანკის პრეზიდენტის ბრძანება, რომელიც მიემართება ფინანსურ და საბანკო სექტორს და ხელოვნური ინტელექტის ეთიკურ გამოყენებას.
საქართველოს შედეგების შედარება აღმოსავლეთ ევროპის ქვეყნებთან
აღმოსავლეთ ევროპის რეგიონში ყველაზე კარგი შედეგი უკრაინამ აჩვენა. უკრაინა რეგიონში ერთადერთი ქვეყანაა, რომელსაც ხელოვნური ინტელექტის ეროვნული პოლიტიკის დოკუმენტი აქვს — “უკრაინაში AI-ის განვითარების კონცეფცია”. აღნიშნული დოკუმენტი ქვეყანაში ხელოვნური ინტელექტის განვითარების პრიორიტეტულ მიმართულებებს განსაზღვრავს და ადამიანის უფლებების დაცვის მიზნით ადგენს ეთიკის სტანდარტებს. პასუხისმგებლიანი ხელოვნური ინტელექტის საკითხებზე აქტიურად მუშაობენ უკრაინის არასამთავრობო სექტორის წარმომადგენლები, კარგი შეფასება ქვეყანამ ამ მიმართულებით მთავრობის ინიციატივების დამსახურებითაც მიიღო.
საქართველო უკრაინას ყველა ბლოკსა და ყველა მიმართულებით ჩამორჩება, თუმცა პასუხისმგებლიანი AI მმართველობის მიმართულების გარდა, სადაც საქართველოს 3.46 ქულით აზერბაიჯანი უსწრებს, რეგიონის ქვეყნებს შორის მეორე ადგილზეა. (კვლევაში არ არის შეფასებული თურქეთი და რუსეთი)
დასკვნა
პასუხისმგებლიანი ხელოვნური ინტელექტის გლობალური ინდექსი წელს პირველად გამოქვეყნდა, რომელიც ქვეყნებს აძლევს შესაძლებლობას შეაფასონ, ინოვაციების წახალისებასთან ერთად, რამდენად ხდება ახალი ტექნოლოგიებისთვის დამახასიათებელი სოციალური, ეკონომიკური და სხვა რისკების გათვალისწინება.
საქართველოს შედეგები ცხადყოფს, რომ აუცილებელია ქვეყანაში არსებობდეს ერთიანი ხედვა და მიდგომები, როგორც AI სისტემების განვითარების ხელშეწყობის, ასევე მათი გამოყენების დროს ეთიკური სტანდარტების დაცვის კუთხით. ასევე, მნიშვნელოვანია ყველა დაინტერესებული მხარის თანაბარი ჩართულობა და ყურადღება AI-ის პასუხისმგებლიანი გამოყენების საერთაშორისო სტანდარტებისა და პრინციპების მიმართ.
აღნიშნული კვლევა 2030 წლამდე ყოველწლიურად გამოქვეყნდება, რაც ქვეყნებს შემდგომი გაუმჯობესებისა და კარგი პრაქტიკების გათვალისწინების შესაძლებლობას აძლევთ.
იხილეთ კვლევის სრული ვერსია და გლობალური ანგარიში