ხელოვნური ინტელექტის სისტემების გამოყენება საქართველოში - კანონმდებლობა და პრაქტიკა

სიახლეები | ინტერნეტი და ინოვაციები | აქტუალური თემები | პოლიტიკის დოკუმენტები 19 თებერვალი 2021

ტექნოლოგიურმა განვითარებამ არსებითად გაზარდა ხელოვნურ ინტელექტზე დაფუძნებული სერვისების შექმნისთვის საჭირო ტექნიკური თუ პროგრამული საშუალებების ხელმისაწვდომობა. ხელოვნურ ინტელექტს გააჩნია ფაქტობრივად ყველა სამუშაო თუ ბიზნეს პროცესის მართვის ტრადიციული მიდგომების სასიკეთოდ გარდაქმნის პოტენციალი. არაკომერციული სამართლის საერთაშორისო ცენტრის მიერ დაფინანსებული პროექტის - „გამჭვირვალობისა და ეთიკური სტანდარტების ხელშეწყობა ხელოვნური ინტელექტის (AI) გამოყენებაში“ - ფარგლებში, IDFI-მ მიზნად დაისახა საჯარო სექტორში ხელოვნური ინტელექტის მოქმედი სისტემების შესწავლა. ჩვენ განსაკუთრებულ ყურადღებას გავამახვილებთ საქართველოში საჯარო დაწესებულებების მიერ აღნიშნული ტექნოლოგიური შესაძლებლობის გამოყენების თვალსაზრისით არსებულ გამოწვევებზე.

 

საჯარო სექტორში ხელოვნური ინტელექტის (AI) სისტემების გამოყენებას  მნიშვნელოვანი სარგებლის მოტანა შეუძლია გადაწყვეტილების მიღების პროცესის გამარტივების, მომსახურების მიწოდების გაუმჯობესებისა და სხვა მრავალი ინოვაციური მიდგომების დანერგვის კუთხით. თუმცა, ხელოვნური ინტელექტით სარგებლობა არაერთ რისკს წარმოშობს. მისი გამოყენება დაკავშირებულია გამჭვირვალობის, ანგარიშვალდებულების, გამოხატვის თავისუფლების, პირადი ცხოვრების დაცვის უფლების თვალსაზრისით არსებულ გამოწვევებთან. ამასთან, ისეთ ქვეყნებში, როგორიცაა საქართველო, სადაც შედარებით სუსტია ძალოვანი სტრუქტურების მიმართ არსებული საზედამხედველო მექანიზმები და არსებობს კითხვები სასამართლოს დამოუკიდებლობასთან დაკავშირებით, ხელოვნური ინტელექტის თანმხლები რისკების დაბალანსების პრობლემა მომეტებული კრიტიკულობით ვლინდება.

 

კვლევის ძირითად ნაწილში საჯარო დაწესებულებების მიერ ხელოვნური ინტელექტის გამოყენების თაობაზე მოპოვებული ინფორმაცია, განხილულია ეთიკური ხელოვნური ინტელექტის საბაზისო სტანდარტებისა და საქართველოს კანონმდებლობის ძირითადი პრინციპების პარალელურად.

 

მეთოდოლოგია 

 

სახელმწიფო უწყებების მიერ ხელოვნური ინტელექტის გამოყენების თაობაზე არაერთ პრაქტიკულ თუ სამართლებრივ პრობლემასთან არის დაკავშირებული. მაგალითად, არ არსებობს ხელოვნური ინტელექტზე დაფუძნებული ინფორმაციული სისტემების ერთიანი რეესტრი, ხელოვნური ინტელექტის ნორმატიული დეფინიცია ან/და მასთან სპეციალური კანონმდებლობა.

 

საჯარო დაწესებულებაში ხელოვნური ინტელექტის გამოყენების შესაძლო შემთხვევების იდენტიფიცირების მიზნით, IDFI გამოიყენა საჯაროდ ხელმისაწვდომი ინფორმაცია, რომელიც მიანიშნებდა, რომ შესაბამისი დაწესებულება იყენებდა ხელოვნური ინტელექტის შემცველ სერვისებს. ამასთან, ჩვენ ინფორმაცია მოვითხოვეთ ორგანოებიდან, რომელთა ფუნქციებიდან გამომდინარე, მაღალი იყო ალბათობა, რომ სარგებლობდნენ სამიზნე ტექნოლოგიური საშუალებით. საჯარო დაწესებულებების იდენტიფიცირების შემდგომ, IDFI-მ მათ შესაბამისი საჯარო ინფორმაციის მოთხოვნით მიმართა. ინფორმაციის მოთხოვნის წერილები გაიგზავნა 54 უწყებაში.

 

აღსანიშნავია, რომ საქართველოს კანონმდებლობა არ განსაზღვრავს ხელოვნური ინტელექ- ტის ცნებას. იმავდროულად,  ყოველთვის არ არის ნათელი ზღვარი ხელოვნურ ინტელექტსა და სხვა ტიპის ფუნქციურ ალგორითმებს შორის. 1 ამ ბუნდოვანების გასაქარწყლებლად და არასწორი ინფომრაციის მიღების ალბათობის შესამცირებლად, საჯარო ინფორმაციის გამოთხოვამდე IDFI-მ შესაბამისი საჯარო დაწესებულების წარმომადგენლებთან გამართა შეხვედრა, რომლის ერთერთი მიზანი იყო საჯარო ინფორმაციის მოთხოვნის წინასწარ გაცნობა, რათა მაქსიმალურად ყოფილიყო უზრუნველყოფილი ზუსტი პასუხების მიღება.

 

საჯარო ინფორმაციის მოთხოვნის პარალელურად ჩვენ შევისწავლეთ ხელოვნური ინტე- ლექტის მარეგულირებელი ნორმატიული ბაზა. სახელდობრ, მართალია საქართველოში არ არსებობს საჯარო დაწესებულებების მიერ ხელოვნური ინტელექტის შემცველი პროგრამული სერვისების მარეგულირებელი სპეციალური კანონმდებლობა, თუმცა საქართველოს კონსტიტუცია ისევე, როგორც სხვა საკანონმდებლო აქტები ადგენს არაერთ ნორმატიულ მოთხოვნას, რომლებიც საჯარო დაწესებულების მიერ ხელოვნური ინტელექტის გამოყენებაზე გავრცელდება.

 

საჯარო ინფორმაციის მოთხოვნების შედეგად მიღებული ინფორმაციის განზოგადებული ანალიზი

 

იდენტიფიცირებული 54 საჯარო დაწესებულებიდან, IDFI-იმ გამოითხოვა მათ მიერ შექმნილი, აგრეთვე მათ სარგებლობაში არსებული ინფორმაციული სისტემების, პროგრამული საშუალებების და ხელოვნური ინტელექტის სისტემების შესახებ ინფორმაცია. თუმცა, კვლევის პროცესში აქცენტი გაკეთდა ხელოვნური ინტელექტის შემცველ პროგრამებზე. კერძოდ, IDFI-მ საჯარო დაწესებულებებიდან მოითხოვა შემდეგი ინფორმაცია:

 

1. პროგრამული საშუალების დასახელება, დანიშნულება, შემქმნელი და მომხმარებელი;

2. აღწერილობა, პარამეტრები, მის მიერ დაყენებული შედეგები და მისი გამოყენება გადაწყვეტილების მიღების პროცესში;

3. მომხმარებლის სახელმძღვანელო/ინსტრუქცია, აგრეთვე, ტექნიკური სახელმძღვანელო;

4. პროგრამული საშუალების გამოყენების მარეგულირებელი სამართლებრივი აქტები;

5. ეთიკისა და პერსონალური მონაცემების დამუშავების სტანდარტების დაცვის წესები;

6. პროგრამის  ფუნქციონირების შესახებ ჩატარებული აუდიტის ანგარიში და დასკვნა.

 

IDFI-მ კვლევის ფარგლებში გაგზავნილ 54 მოთხოვნაზე პასუხი მიიღო 36 უწყებიდან. მათგან მხოლოდ 12-მა უწყებამ გასცა ინფორმაცია მათ მიერ გამოყენებულ პროგრამულ უზრუნველყოფაზე, ხოლო ნაწილმა ინსტიტუტს აცნობა, რომ ხელოვნური ინტელექტის სისტემებს არ იყენებენ. სამიზნე უწყებების მნიშვნელოვანმა ნაწილმა არ უპასუხა საჯარო ინფორმაციის მოთხოვნის წერილს, ხოლო მიღებული პასუხების უმრავლესობა შემოიფარგლა მხოლოდ იმის აღნიშნვით რომ უწყებაში ხელოვნური ინტელექტის გამოყენება არ ხდება. მსგავსმა პასუხებმა, რამდენიმე შემთხვევაში აღძრა ეჭვი, რომ დაწესებულებებმა ისარგებლეს ტერმინის „ხელოვნური ინტელექტი“ შინაარსობრივი ბუნდოვანებით და თავი აარიდეს ინფორმაციის გამჟღავნებას.

 

 

 

ხელოვნური ინტელექტის სისტემების და სხვა ავტომატიზებული პროგრამული უზრუნველყოფების ერთმანეთისგან გამიჯვნის სირთულიდან გამომდინარე, კვლევის ფარგლებში ცალკეული უწყებებიდან მივიღეთ ინფორმაცია მათ მიერ გამოყენებულ ისეთ პროგრამულ საშუალებებზეც, რომლებიც არ შეიცავენ ხელოვნური ინტელექტის ელემენტებს, თუმცა გამოირჩევიან ავტომატიზების მაღალი ხარისხით. ასეთის მაგალითია შემოსავლების სამსახური, რომელსაც დანერგილი აქვს საბაჟო მონაცემთა ავტომატიზებულ სისტემას (ASYCUDA), დღგ-ს უკან დაბრუნების სისტემა და ელექტრონული განცხადებების დამუშავების სისტემა. საჯარო ინფორმაციის მოთხოვნის პირველ და მეორე პუნქტებზე (ე.ი. პროგრამების დასახელება და ზოგადი აღწერა) პასუხი მიღებულია 12 უწყებიდან. მათგან, 8 უწყებამ მოგვაწოდა ინფორმაცია, მათ მიერ გამოყენებული ისეთ პროგრამულ საშუალებებზე, რომელთა მახასიათებლებიც არ ემთხვევა ხელოვნურ ინტელექტზე დაფუძნებულ სისტემებს. საჯარო დაწესებულებებიდან მიღებული პასუხების ანალიზის შედეგად, ხელოვნური ინტელექტის გამოყენება დადასტურდა 4 უწყებაში, ხოლო საქართველოს პროკურატურის მიერ ხელოვნური ინტელექტის გამოყენების თაობაზე ინფორმაცია, ხელმისაწვდომი გახდა საჯარო წყაროებიდან.

 

დაწესებულებები, რომლებიც იყენებენ ხელოვნურ ინტელექტის შემცველ სისტემებს:

 

 

ხელოვნური ინტელექტის გამოყენების 4 დადასტურებული შემთხვევიდან მომხმარებლის სახელმძღვანელო და შესაბამისი ინფორმაციული სისტემების მარეგულირებელი აქტები მოგვაწოდა მხოლოდ განათლების ხარისხის განვითარების ეროვნულმა ცენტრმა, ხოლო სისტემის გამოყენების ეთიკისა და პერსონალური მონაცემების დაცვის სტანდარტებზე ინფორმაცია გაგვიზიარა მხოლოდ განათლების ხარისხის განვითარების ეროვნულმა ცენტრმა და ტურიზმის ეროვნულმა ადმინისტრაციამ. აღსანიშნავია, რომ პროგრამის  ფუნქციონირების შესახებ ჩატარებული აუდიტის ანგარიში და დასკვნა არც ერთი უწყებისგან არ იქნა მიღებული, მათი ნაწილის ცნობით, აღნიშნული სისტემების და პროგრამების ფუნქციონირების აუდიტი არ ჩატარებულა, ხოლო დანარჩენებმა  პუნქტი უპასუხოდ დატოვეს. 

 

დასკვნა

 

ხელოვნური ინტელექტის სისტემების დანერგვა საქართველოს საჯარო სექტორში განვითარების საწყის ეტაპზეა, თუმცა, კერძო სექტორში უკვე მრავლად გვხვდება აღნიშნული ტექნოლოგიის გამოყენების წარმატებული მაგალითები, დისტანციური ვერიფიკაციის სისტემები, დოკუმენტების ავტომატური იდენტიფიკაციის სისტემები, კომუნიკაციის ავტომატიზაციის პროგრამები და მრავალი სხვა საშუალებები. ეს სექტორი განსაკუთრებით მომგებიანი გახდა პანდემიის პირობებში, დისტანციურ სერვისებზე გაზრდილი მოთხოვნის შედეგად. შესაბამისად, უკვე თვალსაჩინოა თუ რა პოტენციალი აქვს ხელოვნური ინტელექტის ფართომასშტაბიან გამოყენებას სხვადასხვა პროცესებში ეფექტიანობის და ხარჯთეფექტურობის გაზრდის თვალსაზრისით. თუმცა, ასევე ანგარიშგასაწევია ის რისკები, რაც შეიძლება წარმოიშვას სისტემის ბოროტად გამოყენების, ტექნიკური ხარვეზების და პერსონალური მონაცემების არასწორი მართვის შედეგად.

 

ხელოვნური ინტელექტი არ არის მორიგი დამხმარე ელექტრონული სისტემა. იგი არსებითად ზრდის სახელმწიფოს მმართველობით შესაძლებლობებს, შესაბამისად, იმატებს მისი არამართლზომიერებად გამოყენების ცდუნება. ეს რისკი განსაკუთრებით მაღალია განვითარებადი დემოკრატიის ქვეყნებში. კვლევის შედეგად, გამოვლინდა, რომ სამართალდამცავი უწყებები არის საჯარო სექტორის ერთადერთი მიმართულება სადაც სტაბილურად მიმდინარეობს ხელოვნური ინტელექტის დანერგვის პროცესი, რაც ირიბად ამ რისკების რეალურობაზე მიუთითებს.

 

წინამდებარე კვლევის შედეგად, თვალსაჩინო ხდება, სამიზნე უწყებებში ხელოვნური ინტელექტის სისტემების მარეგულირებელი ნორმატიული აქტების და ეთიკური ნორმების განმსაზღვრელი დოკუმენტების არარსებობა. იმისათვის, რომ საჯარო სექტორმა აღნიშნული ტექნოლოგიებისგან მაქსიმალური სარგებლის მიღება შეძლოს, ტექნოლოგიურ მზაობასთან ერთად, კრიტიკულად მნიშვნელოვანია გამოყენებული სისტემების შესახებ ინფორმაციის ხელმისაწვდომობა და საჯაროობა, რათა საზოგადოებას ჰქონდეს ინფორმაცია სისტემების ფუნქციონირების თავისებურებების შესახებ, გამოირიცხოს მიკერძოების რისკები, შესაძლებელი იყოს გარე დამკვირვებლის მიერ სისტემის შესაძლო ხარვეზებზე მსჯელობა და ნდობის მაღალი ხარისხის მოპოვება. კვლევის შედეგად გამოვლინდა, რომ ხელოვნური ინტელექტის გამოყენების თაობაზე ინფორმაცია იმდენად მწირია, რომ რთულდება არამხოლოდ მათ გამოყენებაზე კონტროლის განხორციელება არამედ სამართლიანი სასამართლოს უფლებით სარგებლობაც.

 

საჯარო სექტორს ხელოვნური ინტელექტის განვითარების მიმართულებით ორმაგი როლი აკისრია და შესაბამისად, ორმაგი გამოწვევა ხვდება. პირველ რიგში, საჯარო სექტორმა ხელი უნდა შეუწყოს ქვეყანაში ეროვნული სტარტაპების, ინდუსტრიის ჩამოსაყალიბებლად AI-ისთვის სათანადო ეკოსისტემის შექმნას, ინვესტორებისა და დონორების მოზიდვას, AIის აპლიკაციების სხვადასხვა სექტორების მიერ გამოყენებას და ხელოვნური ინტელექტით სოციალურ-ეკონომიკური ზრდისა და კეთილდღეობის მიღწევას. ამავდროულად, ხელოვნური ინტელექტის განვითარებისთვის, ხელისუფლებამ უნდა შექმნას ისეთი მარეგულირებელი ჩარჩო, რომელიც დააბალანსებს და შეამცირებს ხელოვნური ინტელექტის სისტემებთან დაკავშირებულ საფრთხეებს, რისკებს, გამოწვევებს, და უზრუნველყოფს მიღებული სამართლებრივი და ეთიკური სტანდარტების აღსრულების ქმედით მექანიზმებს. მნიშვნელოვანია, ასევე გაწერილი იყოს ხელოვნური სისტემების ფუნქციონირების შემოწმების პროცედურები, პასუხისმგებლობები და საზოგადოებისთვის ხელმისაწვდომი იყოს ამგვარი შემოწმების შედეგები. მნიშვნელოვანია, ამ მიმართულებით შესაბამისი ნაბიჯების გადადგმა ხელოვნური ინტელექტის დანერგვის საწყის ეტაპზევე დაიწყოს.

 

/public/upload/Article/AI ENG FULL.pdf

სხვა მასალები ამ თემაზე
სიახლეები

2024 წლის საპარლამენტო არჩევნებმა საქართველოში ავტოკრატიული ტენდენციები გაამყარა - V-Dem institute-ის შეფასება

13.11.2024

სასამართლოს აქტების პროაქტიული გამოქვეყნება: კანონმდებლობა და პრაქტიკა

04.11.2024

სტატუსმეტრი 2.0 - როგორ მიდის საქართველო ევროკავშირის 9 ნაბიჯის შესრულებისკენ

01.11.2024

კორუფციასთან ბრძოლის სასერტიფიკატო პროგრამის მონაწილეთა დაჯილდოების ცერემონია

22.10.2024
განცხადებები

სტრასბურგის სასამართლომ განსხვავებული აზრის მქონე მოსამართლის სასამართლო სისტემიდან განდევნა დაადასტურა

11.11.2024

მოვუწოდებთ პროკურატურას არჩევნების გაყალბება გამოიძიოს და არა დამკვირვებელი ორგანიზაციების საქმიანობა

06.11.2024

სასამართლო ხელისუფლებამ სისტემურ საარჩევნო დარღვევებზე თვალი არ უნდა დახუჭოს

05.11.2024

სამართლებრივი ბრძოლა რუსული კანონის წინააღმდეგ სტრასბურგში გაგრძელდება

17.10.2024
ბლოგპოსტები

ინტერმუნიციპალური საქმიანობის გაძლიერება საქართველოში

21.10.2024

საგზაო-სატრანსპორტო შემთხვევების პრევენციის ინსტიტუციური მექანიზმები

21.10.2024

კრიპტოვალუტის საქართველოს ფინანსურ სისტემაში ინტეგრირების გამოწვევები და სტრატეგიული მიდგომა ბლოკჩეინისა და უძრავი ქონების მიმართ კორუფციის წინააღმდეგ საბრძოლველად

21.10.2024

ქართული ენის არცოდნა, როგორც გამოწვევა პოლიტიკურ პროცესებში ეთნიკური უმცირესობების ჩართულობის თვალსაზრისით

21.10.2024