11 квітня 2023, 09:59

Найбільша загроза ШІ – розповзання технології поза контролем держав і закону

ІТ-бізнес починає про щось здогадуватись. Минуло всього чотири місяці з того моменту, як у вільному доступі з'явився революційний продукт компанії OpenAI – ChatGPT. А сьогодні керівники тисячі провідних ІТ компаній на чолі із Возяком й Маском закликають призупинити запуск чергової версії ChatGPT. Та й батько-засновник бота, Глава OpenAI Сем Альтман висловлює занепокоєння. Він каже, що остання версія ChatGPT може становити неабияку загрозу, потрапивши до "поганих хлопців". За словами Альтмана, вони можуть зняти обмеження, які наклав на ШІ розробник й це може перетворити його у небезпечну зброю.

Але чи можливо стримати розвиток ШІ? Глава "Майкрософт" Біл Гейтс вважає, що в різних країнах існують різні погляди щодо нього й згода не можлива. Гейтс пропонує не забороняти, а "визначити неоднозначні області". Що це за "області"? Про це ніхто не говорить в голос. Але можна припустити, що йдеться про використання ШІ на шкоду людині чи навіть людству.

Одразу в пам'яті спливають Закони робототехніки Айзека Азімова. Але чи є якість загальноприйняті законодавчі вимоги щодо будь-якого програмного продукту, який продукують тисячі ІТ-компаній: не шкодити людині чи тварині, не брехати, не чинити дії, які протирічать усталеним суспільним нормам... Про це ніхто не каже, це не обговорюють й не чутно про обмеження, які б накладали на розробників.

Чому це так важливо? В діях будь-якого ШІ закладені алгоритми, в яких міститься... мораль. Звідси – один крок до царини закону.

Лише один приклад. "Тесла" на автопілоті потрапляє в ситуацію, коли уникнути аварії неможливо. Існують дві опції: обрати напрямок руху авто, коли під колеса потрапить неповнолітня дитина, або ж альтернативний варіант – загине пара пенсіонерів. Третього не дано: або-або. Сам ШІ, прошитий в "Теслу" нічого не вирішує – все закладне в алгоритмах на всі випадки дорожніх ситуацій, які прописує програміст. То кому він має залишити право жити: двом старим, які "вже своє пожили", або одному підлітку, який лише починає знайомство зі світом? Важкий моральний вибір для програміста. А чи є він моральною людиною, чи любить він дітей, чи він не ейджист?...

Вам не здається, що завдання на програмування подібних алгоритмів має давати якась дуже авторитетна експертна комісія чи можна ухвалити якийсь всеохоплюючий закон, де чітко прописані вимоги до програмного продукту, коли мова заходить про царину моралі, прав людини й можливо всього живого? А може у кожному випадку слід проводити слухання й голосувати у парламенті? Але таких алгоритмів й "законів" ШІ – десятки й сотні тисяч, моральних дилем на всі випадки – незлічена кількість. Хто і як все це регулюватиме?

Логіка ChatGPT побудована на аналізі мільярдів джерел з мережі й визначенні "вартісності" кожного з варіантів відповіді. Чи "дослухається" ШІ до джерел, які містять ознаки расової, релігійної чи іншої ненависті, чи заблоковано йому доступ до таких ресурсів: цього ніхто не знає окрім розробників й власників інтелектуального продукту. Напевно, якість правила-новітні "закони робототехніки" існують, але в кожного розробника вони свої. Й ми геть нічого не знаємо про моральність алгоритмів й тих панів, які їх розробляють.

А виходячи зі слів "батька" ChatGPT Сема Альтмана, ці обмеження здатні відключити "погані хлопці". Й ці "хлопці" можуть виявитися не одинаками, а офіцерами спеціальних служб всіляких іранів-росій-північних корей.

Не меншу небезпеку за диктаторів становлять айтішніки й багатії Сіліконової Долини, які зазвичай книжок не читали, філософські роздуми їх не турбують, тим не менш вони одноосібно створюють правила нашого найближчого майбутнього – ніким не схвалені алгоритми роботи ШІ. За правилом цифрового світу переможець отримує все, тому на фронті ШІ йде запекла війна корпорацій, які вкладають десятки мільярдів доларів у розробку. На кону не просто питання надприбутків, а й без перебільшення контролю над всім світом.

Як загнати діяльність ІТ-корпорацій у законне й моральне річище? Викликати перших осіб корпорацій на слухання в Конгрес, як це траплялося з представниками ФБ, Гугл, тощо? Як часто: щодо кожного рядку програмного коду?...

Ситуація виглядає тупіковою, але вона має бути вирішена. Адже конкуренти-розробники готові на все – тут не до моралі...

Тим часом найбільш аморальні держави починають знімати вершки з використання ШІ. Днями російське державне інформаційне агентство РИА-Новости повідомило, що ChatGPT вважає: влада Києва не зможе розірвати договір між КПЦ МП й державою щодо використання будівель Києво-Печерської лаври. Маємо прецедент посилання на ШІ не просто як на моральний, а й на юридичний авторитет. Він вже перетворився на інформаційну зброю на тлі юридичної та моральної невизначеності.

План победы в одном предложении

Содержание Плана победы Зеленского можно уместить в одну фразу: дайте оружия, денег и защитите. Победный фарс заштатного актеришки на трибуне Верховной Раде провалился...

Вугледар: це і є ваш план перемоги?

Боєць ЗСУ, колишній нардеп й громадський активіст Ігор Луценко описує в ФБ відхід наших бійців з Вугледару: "72-га виходила тяжко, криваво...

Жажду крови

Я очень хочу знать имена причастных к этой войне и видеть судебные приговоры. Все начальники разведки с 2007 года должны попасть под суд. Почему с 2007-го? Да потому что 10...

Заперейменувати Україну вщент!

В парламенті сталися непримеренні баталії навколо трибуни: йшлося про перейменування понад трьохсот чергових населених пунктів. Про це гомоніла вся країна...

Ментовський бізнес під час війни: відкат – 30%

Три тижні тому я звернув увагу на чергову дичину від Нацполу: там вирішили закупити партію пересувних вимірювачів швидкості TruCam й дублювати ними роботу існуючих автоматичних камер, встановлених на трасах, відволікаючи для цього екіпажі патрульної поліції...

Фестиваль "Букет": відчайдушна битва на культурному фронті

Відгримав, відлунав, відаплодував сьомий, а значить вже традиційний Фестиваль високого мистецтва під відкритим небом "Букет". Він незмінно відбувається на території "Софії Київської"...