ხელოვნური ინტელექტის სისტემების გამოყენება საქართველოში - კანონმდებლობა და პრაქტიკა

სიახლეები | ინტერნეტი და ინოვაციები | აქტუალური თემები | პოლიტიკის დოკუმენტები 19 თებერვალი 2021

ტექნოლოგიურმა განვითარებამ არსებითად გაზარდა ხელოვნურ ინტელექტზე დაფუძნებული სერვისების შექმნისთვის საჭირო ტექნიკური თუ პროგრამული საშუალებების ხელმისაწვდომობა. ხელოვნურ ინტელექტს გააჩნია ფაქტობრივად ყველა სამუშაო თუ ბიზნეს პროცესის მართვის ტრადიციული მიდგომების სასიკეთოდ გარდაქმნის პოტენციალი. არაკომერციული სამართლის საერთაშორისო ცენტრის მიერ დაფინანსებული პროექტის - „გამჭვირვალობისა და ეთიკური სტანდარტების ხელშეწყობა ხელოვნური ინტელექტის (AI) გამოყენებაში“ - ფარგლებში, IDFI-მ მიზნად დაისახა საჯარო სექტორში ხელოვნური ინტელექტის მოქმედი სისტემების შესწავლა. ჩვენ განსაკუთრებულ ყურადღებას გავამახვილებთ საქართველოში საჯარო დაწესებულებების მიერ აღნიშნული ტექნოლოგიური შესაძლებლობის გამოყენების თვალსაზრისით არსებულ გამოწვევებზე.

 

საჯარო სექტორში ხელოვნური ინტელექტის (AI) სისტემების გამოყენებას  მნიშვნელოვანი სარგებლის მოტანა შეუძლია გადაწყვეტილების მიღების პროცესის გამარტივების, მომსახურების მიწოდების გაუმჯობესებისა და სხვა მრავალი ინოვაციური მიდგომების დანერგვის კუთხით. თუმცა, ხელოვნური ინტელექტით სარგებლობა არაერთ რისკს წარმოშობს. მისი გამოყენება დაკავშირებულია გამჭვირვალობის, ანგარიშვალდებულების, გამოხატვის თავისუფლების, პირადი ცხოვრების დაცვის უფლების თვალსაზრისით არსებულ გამოწვევებთან. ამასთან, ისეთ ქვეყნებში, როგორიცაა საქართველო, სადაც შედარებით სუსტია ძალოვანი სტრუქტურების მიმართ არსებული საზედამხედველო მექანიზმები და არსებობს კითხვები სასამართლოს დამოუკიდებლობასთან დაკავშირებით, ხელოვნური ინტელექტის თანმხლები რისკების დაბალანსების პრობლემა მომეტებული კრიტიკულობით ვლინდება.

 

კვლევის ძირითად ნაწილში საჯარო დაწესებულებების მიერ ხელოვნური ინტელექტის გამოყენების თაობაზე მოპოვებული ინფორმაცია, განხილულია ეთიკური ხელოვნური ინტელექტის საბაზისო სტანდარტებისა და საქართველოს კანონმდებლობის ძირითადი პრინციპების პარალელურად.

 

მეთოდოლოგია 

 

სახელმწიფო უწყებების მიერ ხელოვნური ინტელექტის გამოყენების თაობაზე არაერთ პრაქტიკულ თუ სამართლებრივ პრობლემასთან არის დაკავშირებული. მაგალითად, არ არსებობს ხელოვნური ინტელექტზე დაფუძნებული ინფორმაციული სისტემების ერთიანი რეესტრი, ხელოვნური ინტელექტის ნორმატიული დეფინიცია ან/და მასთან სპეციალური კანონმდებლობა.

 

საჯარო დაწესებულებაში ხელოვნური ინტელექტის გამოყენების შესაძლო შემთხვევების იდენტიფიცირების მიზნით, IDFI გამოიყენა საჯაროდ ხელმისაწვდომი ინფორმაცია, რომელიც მიანიშნებდა, რომ შესაბამისი დაწესებულება იყენებდა ხელოვნური ინტელექტის შემცველ სერვისებს. ამასთან, ჩვენ ინფორმაცია მოვითხოვეთ ორგანოებიდან, რომელთა ფუნქციებიდან გამომდინარე, მაღალი იყო ალბათობა, რომ სარგებლობდნენ სამიზნე ტექნოლოგიური საშუალებით. საჯარო დაწესებულებების იდენტიფიცირების შემდგომ, IDFI-მ მათ შესაბამისი საჯარო ინფორმაციის მოთხოვნით მიმართა. ინფორმაციის მოთხოვნის წერილები გაიგზავნა 54 უწყებაში.

 

აღსანიშნავია, რომ საქართველოს კანონმდებლობა არ განსაზღვრავს ხელოვნური ინტელექ- ტის ცნებას. იმავდროულად,  ყოველთვის არ არის ნათელი ზღვარი ხელოვნურ ინტელექტსა და სხვა ტიპის ფუნქციურ ალგორითმებს შორის. 1 ამ ბუნდოვანების გასაქარწყლებლად და არასწორი ინფომრაციის მიღების ალბათობის შესამცირებლად, საჯარო ინფორმაციის გამოთხოვამდე IDFI-მ შესაბამისი საჯარო დაწესებულების წარმომადგენლებთან გამართა შეხვედრა, რომლის ერთერთი მიზანი იყო საჯარო ინფორმაციის მოთხოვნის წინასწარ გაცნობა, რათა მაქსიმალურად ყოფილიყო უზრუნველყოფილი ზუსტი პასუხების მიღება.

 

საჯარო ინფორმაციის მოთხოვნის პარალელურად ჩვენ შევისწავლეთ ხელოვნური ინტე- ლექტის მარეგულირებელი ნორმატიული ბაზა. სახელდობრ, მართალია საქართველოში არ არსებობს საჯარო დაწესებულებების მიერ ხელოვნური ინტელექტის შემცველი პროგრამული სერვისების მარეგულირებელი სპეციალური კანონმდებლობა, თუმცა საქართველოს კონსტიტუცია ისევე, როგორც სხვა საკანონმდებლო აქტები ადგენს არაერთ ნორმატიულ მოთხოვნას, რომლებიც საჯარო დაწესებულების მიერ ხელოვნური ინტელექტის გამოყენებაზე გავრცელდება.

 

საჯარო ინფორმაციის მოთხოვნების შედეგად მიღებული ინფორმაციის განზოგადებული ანალიზი

 

იდენტიფიცირებული 54 საჯარო დაწესებულებიდან, IDFI-იმ გამოითხოვა მათ მიერ შექმნილი, აგრეთვე მათ სარგებლობაში არსებული ინფორმაციული სისტემების, პროგრამული საშუალებების და ხელოვნური ინტელექტის სისტემების შესახებ ინფორმაცია. თუმცა, კვლევის პროცესში აქცენტი გაკეთდა ხელოვნური ინტელექტის შემცველ პროგრამებზე. კერძოდ, IDFI-მ საჯარო დაწესებულებებიდან მოითხოვა შემდეგი ინფორმაცია:

 

1. პროგრამული საშუალების დასახელება, დანიშნულება, შემქმნელი და მომხმარებელი;

2. აღწერილობა, პარამეტრები, მის მიერ დაყენებული შედეგები და მისი გამოყენება გადაწყვეტილების მიღების პროცესში;

3. მომხმარებლის სახელმძღვანელო/ინსტრუქცია, აგრეთვე, ტექნიკური სახელმძღვანელო;

4. პროგრამული საშუალების გამოყენების მარეგულირებელი სამართლებრივი აქტები;

5. ეთიკისა და პერსონალური მონაცემების დამუშავების სტანდარტების დაცვის წესები;

6. პროგრამის  ფუნქციონირების შესახებ ჩატარებული აუდიტის ანგარიში და დასკვნა.

 

IDFI-მ კვლევის ფარგლებში გაგზავნილ 54 მოთხოვნაზე პასუხი მიიღო 36 უწყებიდან. მათგან მხოლოდ 12-მა უწყებამ გასცა ინფორმაცია მათ მიერ გამოყენებულ პროგრამულ უზრუნველყოფაზე, ხოლო ნაწილმა ინსტიტუტს აცნობა, რომ ხელოვნური ინტელექტის სისტემებს არ იყენებენ. სამიზნე უწყებების მნიშვნელოვანმა ნაწილმა არ უპასუხა საჯარო ინფორმაციის მოთხოვნის წერილს, ხოლო მიღებული პასუხების უმრავლესობა შემოიფარგლა მხოლოდ იმის აღნიშნვით რომ უწყებაში ხელოვნური ინტელექტის გამოყენება არ ხდება. მსგავსმა პასუხებმა, რამდენიმე შემთხვევაში აღძრა ეჭვი, რომ დაწესებულებებმა ისარგებლეს ტერმინის „ხელოვნური ინტელექტი“ შინაარსობრივი ბუნდოვანებით და თავი აარიდეს ინფორმაციის გამჟღავნებას.

 

 

 

ხელოვნური ინტელექტის სისტემების და სხვა ავტომატიზებული პროგრამული უზრუნველყოფების ერთმანეთისგან გამიჯვნის სირთულიდან გამომდინარე, კვლევის ფარგლებში ცალკეული უწყებებიდან მივიღეთ ინფორმაცია მათ მიერ გამოყენებულ ისეთ პროგრამულ საშუალებებზეც, რომლებიც არ შეიცავენ ხელოვნური ინტელექტის ელემენტებს, თუმცა გამოირჩევიან ავტომატიზების მაღალი ხარისხით. ასეთის მაგალითია შემოსავლების სამსახური, რომელსაც დანერგილი აქვს საბაჟო მონაცემთა ავტომატიზებულ სისტემას (ASYCUDA), დღგ-ს უკან დაბრუნების სისტემა და ელექტრონული განცხადებების დამუშავების სისტემა. საჯარო ინფორმაციის მოთხოვნის პირველ და მეორე პუნქტებზე (ე.ი. პროგრამების დასახელება და ზოგადი აღწერა) პასუხი მიღებულია 12 უწყებიდან. მათგან, 8 უწყებამ მოგვაწოდა ინფორმაცია, მათ მიერ გამოყენებული ისეთ პროგრამულ საშუალებებზე, რომელთა მახასიათებლებიც არ ემთხვევა ხელოვნურ ინტელექტზე დაფუძნებულ სისტემებს. საჯარო დაწესებულებებიდან მიღებული პასუხების ანალიზის შედეგად, ხელოვნური ინტელექტის გამოყენება დადასტურდა 4 უწყებაში, ხოლო საქართველოს პროკურატურის მიერ ხელოვნური ინტელექტის გამოყენების თაობაზე ინფორმაცია, ხელმისაწვდომი გახდა საჯარო წყაროებიდან.

 

დაწესებულებები, რომლებიც იყენებენ ხელოვნურ ინტელექტის შემცველ სისტემებს:

 

 

ხელოვნური ინტელექტის გამოყენების 4 დადასტურებული შემთხვევიდან მომხმარებლის სახელმძღვანელო და შესაბამისი ინფორმაციული სისტემების მარეგულირებელი აქტები მოგვაწოდა მხოლოდ განათლების ხარისხის განვითარების ეროვნულმა ცენტრმა, ხოლო სისტემის გამოყენების ეთიკისა და პერსონალური მონაცემების დაცვის სტანდარტებზე ინფორმაცია გაგვიზიარა მხოლოდ განათლების ხარისხის განვითარების ეროვნულმა ცენტრმა და ტურიზმის ეროვნულმა ადმინისტრაციამ. აღსანიშნავია, რომ პროგრამის  ფუნქციონირების შესახებ ჩატარებული აუდიტის ანგარიში და დასკვნა არც ერთი უწყებისგან არ იქნა მიღებული, მათი ნაწილის ცნობით, აღნიშნული სისტემების და პროგრამების ფუნქციონირების აუდიტი არ ჩატარებულა, ხოლო დანარჩენებმა  პუნქტი უპასუხოდ დატოვეს. 

 

დასკვნა

 

ხელოვნური ინტელექტის სისტემების დანერგვა საქართველოს საჯარო სექტორში განვითარების საწყის ეტაპზეა, თუმცა, კერძო სექტორში უკვე მრავლად გვხვდება აღნიშნული ტექნოლოგიის გამოყენების წარმატებული მაგალითები, დისტანციური ვერიფიკაციის სისტემები, დოკუმენტების ავტომატური იდენტიფიკაციის სისტემები, კომუნიკაციის ავტომატიზაციის პროგრამები და მრავალი სხვა საშუალებები. ეს სექტორი განსაკუთრებით მომგებიანი გახდა პანდემიის პირობებში, დისტანციურ სერვისებზე გაზრდილი მოთხოვნის შედეგად. შესაბამისად, უკვე თვალსაჩინოა თუ რა პოტენციალი აქვს ხელოვნური ინტელექტის ფართომასშტაბიან გამოყენებას სხვადასხვა პროცესებში ეფექტიანობის და ხარჯთეფექტურობის გაზრდის თვალსაზრისით. თუმცა, ასევე ანგარიშგასაწევია ის რისკები, რაც შეიძლება წარმოიშვას სისტემის ბოროტად გამოყენების, ტექნიკური ხარვეზების და პერსონალური მონაცემების არასწორი მართვის შედეგად.

 

ხელოვნური ინტელექტი არ არის მორიგი დამხმარე ელექტრონული სისტემა. იგი არსებითად ზრდის სახელმწიფოს მმართველობით შესაძლებლობებს, შესაბამისად, იმატებს მისი არამართლზომიერებად გამოყენების ცდუნება. ეს რისკი განსაკუთრებით მაღალია განვითარებადი დემოკრატიის ქვეყნებში. კვლევის შედეგად, გამოვლინდა, რომ სამართალდამცავი უწყებები არის საჯარო სექტორის ერთადერთი მიმართულება სადაც სტაბილურად მიმდინარეობს ხელოვნური ინტელექტის დანერგვის პროცესი, რაც ირიბად ამ რისკების რეალურობაზე მიუთითებს.

 

წინამდებარე კვლევის შედეგად, თვალსაჩინო ხდება, სამიზნე უწყებებში ხელოვნური ინტელექტის სისტემების მარეგულირებელი ნორმატიული აქტების და ეთიკური ნორმების განმსაზღვრელი დოკუმენტების არარსებობა. იმისათვის, რომ საჯარო სექტორმა აღნიშნული ტექნოლოგიებისგან მაქსიმალური სარგებლის მიღება შეძლოს, ტექნოლოგიურ მზაობასთან ერთად, კრიტიკულად მნიშვნელოვანია გამოყენებული სისტემების შესახებ ინფორმაციის ხელმისაწვდომობა და საჯაროობა, რათა საზოგადოებას ჰქონდეს ინფორმაცია სისტემების ფუნქციონირების თავისებურებების შესახებ, გამოირიცხოს მიკერძოების რისკები, შესაძლებელი იყოს გარე დამკვირვებლის მიერ სისტემის შესაძლო ხარვეზებზე მსჯელობა და ნდობის მაღალი ხარისხის მოპოვება. კვლევის შედეგად გამოვლინდა, რომ ხელოვნური ინტელექტის გამოყენების თაობაზე ინფორმაცია იმდენად მწირია, რომ რთულდება არამხოლოდ მათ გამოყენებაზე კონტროლის განხორციელება არამედ სამართლიანი სასამართლოს უფლებით სარგებლობაც.

 

საჯარო სექტორს ხელოვნური ინტელექტის განვითარების მიმართულებით ორმაგი როლი აკისრია და შესაბამისად, ორმაგი გამოწვევა ხვდება. პირველ რიგში, საჯარო სექტორმა ხელი უნდა შეუწყოს ქვეყანაში ეროვნული სტარტაპების, ინდუსტრიის ჩამოსაყალიბებლად AI-ისთვის სათანადო ეკოსისტემის შექმნას, ინვესტორებისა და დონორების მოზიდვას, AIის აპლიკაციების სხვადასხვა სექტორების მიერ გამოყენებას და ხელოვნური ინტელექტით სოციალურ-ეკონომიკური ზრდისა და კეთილდღეობის მიღწევას. ამავდროულად, ხელოვნური ინტელექტის განვითარებისთვის, ხელისუფლებამ უნდა შექმნას ისეთი მარეგულირებელი ჩარჩო, რომელიც დააბალანსებს და შეამცირებს ხელოვნური ინტელექტის სისტემებთან დაკავშირებულ საფრთხეებს, რისკებს, გამოწვევებს, და უზრუნველყოფს მიღებული სამართლებრივი და ეთიკური სტანდარტების აღსრულების ქმედით მექანიზმებს. მნიშვნელოვანია, ასევე გაწერილი იყოს ხელოვნური სისტემების ფუნქციონირების შემოწმების პროცედურები, პასუხისმგებლობები და საზოგადოებისთვის ხელმისაწვდომი იყოს ამგვარი შემოწმების შედეგები. მნიშვნელოვანია, ამ მიმართულებით შესაბამისი ნაბიჯების გადადგმა ხელოვნური ინტელექტის დანერგვის საწყის ეტაპზევე დაიწყოს.

 

/public/upload/Article/AI ENG FULL.pdf

სხვა მასალები ამ თემაზე
სიახლეები

IDFI გიწვევთ კარგი მმართველობის ფორუმზე 2021

04.12.2021

IDFI-ის აღმასრულებელმა დირექტორმა ღია პარლამენტის ფორუმზე დეზინფორმაციასთან ბრძოლაში პარლამენტის როლზე ისაუბრა

03.12.2021

ვებგვერდის პრეზენტაცია - www.historyproject.ge

01.12.2021

ბენეფიციარ მესაკუთრეთა მონიტორნიგის გზამკვლევი

26.11.2021
განცხადებები

დეზინფორმაცია და არჩევნები – 2021 წლის ადგილობრივი თვითმმართველობის არჩევნების შეჯამება

03.12.2021

კოალიცია უზენაესი სასამართლოს მოსამართლეების დანიშვნას კრიტიკულად აფასებს

02.12.2021

არასამთავრობო ორგანიზაციები საკონსტიტუციო ცვლილებებთან დაკავშირებით ირაკლი კობახიძის განცხადებას უარყოფითად აფასებენ

01.12.2021

კოალიცია პარლამენტში უზენაესი სასამართლოს მოსამართლეობის კანდიდატებთან გასაუბრებების დაწყებას ეხმაურება

24.11.2021
ბლოგპოსტები

ონლაინ ინფორმაციის მანიპულირების ეფექტები: ვინ უნდა შეიმუშავოს და განახორციელოს საჭირო მექანიზმები

20.10.2021

სამთავრობო OGP-ის რეგრესი საქართველოში

06.10.2021

სიკვდილი, როგორც საარჩევნო კამპანიის ძირითადი ნარატივი საქართველოში

29.09.2021

პირადი ცხოვრების ხელშეუხებლობის უფლების დარღვევა - სისტემური გამოწვევა საქართველოსთვის

16.09.2021