«Болмағанды болды, айтпағанды айтты» дейтін жасанды интеллект

«Болмағанды болды, айтпағанды айтты» дейтін жасанды интеллект
24kz

Биыл әлемнің 64 мемлекетінде президент сайлауы өтеді дедік.

Оның ішінде Ресей, АҚШ, Үндістан мен Ұлыбритания секілді алпауыттар бар. Осы және өзге елдерді қосқанда саяси науқандарға жалпы, Жер шары халқының жартысынан астамы яғни 4 миллиардқа жуық адам қатысады деген болжам бар. Бұл бұрын-соңды болмаған көрсеткіш. Бірақ ең қызығы бұл емес, сайлау алды дайындықтың қалай жүріп жатқанында. Үміткерлердің қоғамды қызықтырып, сайлаушыларды өзіне тарту үшін қолданып жатқан әдіс-тәсіл, айла-әрекеттерінде. Мысал ретінде АҚШ-тағы республикалықтар мен демократтарды алайық. Бұл екеуі бір-бірінің көзін шұқып, кемшіліктерін бетке басуда алдарына жан салар емес. Былтыр Ютубта мынадай бейне шықты. Ол 100 пайыз нейрожелінің көмегімен жасалған. Антиутопиялық бейнежазбада Джо Байден қайта сайланса, халықаралық һәм елішілік дағдарыстың өршитіні көрсетіледі.

«Болмағанды болды деп, айтпағанды айтты дейтін» мұндай жасанды роликтер мен суреттер қоғамның, жалпы алғанда мемлекеттің болашағына үлкен қауіп төндіреді. Сала мамандарының пікірі осындай.

Брендан Энглот, Стивенс технологиялық институтының доценті:

- Қазір жасанды интеллект түрлі бағытта қолданылып келеді. Алайда, әзірге ол мәтін және бейне жасаумен ғана шектеледі. Десе де, биыл және алдағы жылдары біз оның жаңа мүмкіндіктеріне куә боламыз деп ойлаймын. Бұл бір жағынан көңілге қуаныш ұялатса, екінші жағынан үрей туғызады.

Ұлыбританияда да жылдың екінші жартысына жоспарланған сайлаудың әділ өтуіне жасанды интеллект кері ықпал етеді деген қауіп бар. Бұған дейін де жоғары лауазымды саясаткерлер дипфейктің құрбаны болып үлгергені белгілі.

Дипфейк – демократияға төнген қауіп

Мәселен, оппозициялық Лейбористер партиясының көшбасшысы Кир Стармердің әріптестеріне дауыс көтеріп, бейәдеп сөздер айтып жатқан даусы әлеуметтік желілерде тарады. Кейін бұл - жасанды интеллектің күшімен жасалған жалған аудиожазба екені мәлім болды. Одан кейін, Лондон мэрі Садик Ханның Палестинаны қолдаушылардың шеруіне байланысты Екінші дүниежүзілік соғыс құрбандарын еске алу шарасын кейінге қалдыру туралы даусы жарияланды. Ол да қасақана таралған жалған ақпарат болып шықты. Полиция аудиожазбаларды зерттеп, “қылмыстық құқық бұзушылық емес” деген қорытындыға келді. Сарапшылар дипфейктермен күрес жүргізілмесе, демократияға қауіп төнеді деп есептейді.

Прия Лакхани, Century Tech компаниясының бас директоры:

- Технологияларды технологиямен жеңуге болады. Дипфейктерді анықтау тетіктері жетілдірілуде. Мысалы, Интел компаниясы терінің астындағы қан айналымын зерттеу арқылы жалған бейнелерді табатын технология ойлап тапты. Бірақ олар жетілдірілген сайын жасанды интеллект те тез дамып келеді және бұрынғыдан да сапалы контент ұсынып жатыр. Әсіресе, аудиожазбаның рас-өтірігін әшкерелеу қиынға түсуде. Меніңше, орта мерзімді келешекте осы саланы реттейтін арнайы заң қабылданады.

Заң қабылдануы керек. Ол жұмысын реттейтін ережелер қабылдануы тиіс. Мұны тек сала мамандары ғана емес, саясаткерлер тіпті дін көшбасшылары айтып жатыр. Себебі мұндай қарқынмен жасанды ақпарат қоғамның құндылығы мен ұстанымдарын бір сәтте-ақ өзгертіп жіберуі мүмкін. Қазірдің өзінде ол адамдар арасында шынайы өмірден мүлдем алшақ иллюзия қалыптастыруға әбден мүмкіндігі жетеді.

Ватикан

Михаэль Черни, Ватикан даму бөлімінің басшысы:

- Рим Папасы бұл мәселеде ұжымдық жауапкершілік танытуға шақырады. Мысал ретінде әуе қозғалысын алайық. Бүкіл әлем бойынша ұшақтарды басқару ойынша ортақ келісім мен қағидаттар бар. Дәл солай жасанды интеллектте де бірлесіп әрекет етуіміз керек.

Франция, Страсбург

Естеріңізге сала кетейік, былтыр Еуроодақ елдері алғаш рет жасанды интеллекті реттейтін маңызды заң қабылдау үшін алдын ала келісімге келді. Жаңа қабылданатын заң бойынша адамның жеке деректерін қолдануға, азаматтардың ерік-жігерін басқаратын жасанды интеллект жүйелерін пайдалануға тыйым салынбақ. Сонымен бірге ұлттық қауіпсіздік қорғану мен әскери мақсатта пайдалануға тосқауыл қойды.

- Мұндай шектеумен технологиялық дамуды тежеп алмаймыз ба?

- Жоқ. Мәселен, Сайлауға қатысты айтар болсақ, «Дипфейк» сайлау учаскелеріндегі бейнежазбаларды түбегейлі бұрмалап жіберуге болады. Мәселен, бір адамның бір бюллетень емес, жәшікке жүзін тастап жатқанын, сайлаушының бірнеше учаскеде дауыс бергенін көрсетіп, азаматтарды сайлау процесінің әділетті күмән келтіртуге болады.