Найбільша загроза ШІ – розповзання технології поза контролем держав і закону
ІТ-бізнес починає про щось здогадуватись. Минуло всього чотири місяці з того моменту, як у вільному доступі з'явився революційний продукт компанії OpenAI – ChatGPT. А сьогодні керівники тисячі провідних ІТ компаній на чолі із Возяком й Маском закликають призупинити запуск чергової версії ChatGPT. Та й батько-засновник бота, Глава OpenAI Сем Альтман висловлює занепокоєння. Він каже, що остання версія ChatGPT може становити неабияку загрозу, потрапивши до "поганих хлопців". За словами Альтмана, вони можуть зняти обмеження, які наклав на ШІ розробник й це може перетворити його у небезпечну зброю.
Але чи можливо стримати розвиток ШІ? Глава "Майкрософт" Біл Гейтс вважає, що в різних країнах існують різні погляди щодо нього й згода не можлива. Гейтс пропонує не забороняти, а "визначити неоднозначні області". Що це за "області"? Про це ніхто не говорить в голос. Але можна припустити, що йдеться про використання ШІ на шкоду людині чи навіть людству.
Одразу в пам'яті спливають Закони робототехніки Айзека Азімова. Але чи є якість загальноприйняті законодавчі вимоги щодо будь-якого програмного продукту, який продукують тисячі ІТ-компаній: не шкодити людині чи тварині, не брехати, не чинити дії, які протирічать усталеним суспільним нормам... Про це ніхто не каже, це не обговорюють й не чутно про обмеження, які б накладали на розробників.
Чому це так важливо? В діях будь-якого ШІ закладені алгоритми, в яких міститься... мораль. Звідси – один крок до царини закону.
Лише один приклад. "Тесла" на автопілоті потрапляє в ситуацію, коли уникнути аварії неможливо. Існують дві опції: обрати напрямок руху авто, коли під колеса потрапить неповнолітня дитина, або ж альтернативний варіант – загине пара пенсіонерів. Третього не дано: або-або. Сам ШІ, прошитий в "Теслу" нічого не вирішує – все закладне в алгоритмах на всі випадки дорожніх ситуацій, які прописує програміст. То кому він має залишити право жити: двом старим, які "вже своє пожили", або одному підлітку, який лише починає знайомство зі світом? Важкий моральний вибір для програміста. А чи є він моральною людиною, чи любить він дітей, чи він не ейджист?...
Вам не здається, що завдання на програмування подібних алгоритмів має давати якась дуже авторитетна експертна комісія чи можна ухвалити якийсь всеохоплюючий закон, де чітко прописані вимоги до програмного продукту, коли мова заходить про царину моралі, прав людини й можливо всього живого? А може у кожному випадку слід проводити слухання й голосувати у парламенті? Але таких алгоритмів й "законів" ШІ – десятки й сотні тисяч, моральних дилем на всі випадки – незлічена кількість. Хто і як все це регулюватиме?
Логіка ChatGPT побудована на аналізі мільярдів джерел з мережі й визначенні "вартісності" кожного з варіантів відповіді. Чи "дослухається" ШІ до джерел, які містять ознаки расової, релігійної чи іншої ненависті, чи заблоковано йому доступ до таких ресурсів: цього ніхто не знає окрім розробників й власників інтелектуального продукту. Напевно, якість правила-новітні "закони робототехніки" існують, але в кожного розробника вони свої. Й ми геть нічого не знаємо про моральність алгоритмів й тих панів, які їх розробляють.
А виходячи зі слів "батька" ChatGPT Сема Альтмана, ці обмеження здатні відключити "погані хлопці". Й ці "хлопці" можуть виявитися не одинаками, а офіцерами спеціальних служб всіляких іранів-росій-північних корей.
Не меншу небезпеку за диктаторів становлять айтішніки й багатії Сіліконової Долини, які зазвичай книжок не читали, філософські роздуми їх не турбують, тим не менш вони одноосібно створюють правила нашого найближчого майбутнього – ніким не схвалені алгоритми роботи ШІ. За правилом цифрового світу переможець отримує все, тому на фронті ШІ йде запекла війна корпорацій, які вкладають десятки мільярдів доларів у розробку. На кону не просто питання надприбутків, а й без перебільшення контролю над всім світом.
Як загнати діяльність ІТ-корпорацій у законне й моральне річище? Викликати перших осіб корпорацій на слухання в Конгрес, як це траплялося з представниками ФБ, Гугл, тощо? Як часто: щодо кожного рядку програмного коду?...
Ситуація виглядає тупіковою, але вона має бути вирішена. Адже конкуренти-розробники готові на все – тут не до моралі...
Тим часом найбільш аморальні держави починають знімати вершки з використання ШІ. Днями російське державне інформаційне агентство РИА-Новости повідомило, що ChatGPT вважає: влада Києва не зможе розірвати договір між КПЦ МП й державою щодо використання будівель Києво-Печерської лаври. Маємо прецедент посилання на ШІ не просто як на моральний, а й на юридичний авторитет. Він вже перетворився на інформаційну зброю на тлі юридичної та моральної невизначеності.