Алаяқтар жасанды интеллектіні игеріп алды

Жасанды интеллектінің көмегіне жүгінетіндер саны күн санап артып келеді.

Араларында арам пиғылдылар да аз емес. Заманауи технологияға арқа сүйеген алаяқтар адамдарды түрлі тәсілмен алдап соғуы мүмкін. «Ал қолданыстағы заңнама - азаматтардың құқығын қорғауға келгенде, әлсіз», - дейді Мәжіліс депутат Екатерина Смышляева. Қитұрқы әрекеттен қалай сақтанбақ керек?

Адамдарды алдап арбау үшін, хакер болу міндет емес. Алаяқтар бүгінде жасанды интеллектінің көмегімен жымысқы әрекеттерге барады. Мәселен бұл видеода әріптесім Гүлнар Жандағұлованың жаңалықтарда сөйлеген бейнесі көрсетілген. Бірақ сөзіне құлақ түрсек, жаңалықтарға мүлде жат мәтінді айтып жатыр. Мұнда ол әйгілі банктің инновациялық платформасы жайлы, сол платформаға ақша құйса, бір айда 2 млн теңге ақша табуға болатынын айтып отыр. Оның сөзін іле-шала банк басшысы жалғайды. Платформаның қолжетімділігі турасында майын тамызып әңгілемейді. Алайда бұл шындық аралас жалған бейнежазба. Ия, Хабар 24 арнасында мұндай жүргізуші бар, банк басшысының есімі дұрыс берілген, бет-әлпеті де сол. Бірақ айтып отырғандары жалған. Бұны технология тілімен дипфейк деп атайды.           

Алаяқтар жасанды интеллекті түрлі жолмен қолданады. Мәселен кез келген адам жайлы интернеттегі ақпаратты алып, жалған аккаунт аша алады. Сол сияқты, кей сайттардағы қауіпсіздік процедураларын айналып өту үшін жалған төлқұжат жасатады. Әлеуметтік желінің көмегімен ауқымды фишинг, яғни жалған ұтыс не жеңілдіктер жариялап, алдымен адамдардың жеке мәліметін ұрлап, кейін ақшасын сыпырып алады. Банктегі есепшоттарға қолжеткізу үшін иелерінің даусын салып, жүйені алдау қаупі бар. Бұл да дипфейктің бір түрі.      

Екатерина Смышляева, ҚР Парламенті Мәжілісінің депутаты:
- Бұл технология күнделікті тіршілігімізге сіңіп кеткен. Дауыс пен бейненің синтезі бүгінде ешкімге таңсық емес. Яғни дипфейк технологиясы дауысты ғана емес, бейнені қолдануға мүмкіндік береді. Мұндай жалған бейне-аудио жазбаларды кез келген жерден көруге болады. Сондықтан адвокаттар алқасы қазір осы мәселені көтеріп жатыр. Себебі қолданыстағы заңнама мұндай қитұрқылықпен күресуге жеткіліксіз.

Биыл 11 айда интернет алаяқтыққа қатысты 19 мың іс қозғалды. «Бірақ жасанды интеллектінің көмегімен дипфейкке ұрынып, арыз түсіргендер жоқ», - дейді Ішкі істер министрлігінің криминалдық полиция департаментінің өкілі.

Қаныш Ашжанов, ҚР ІІМ департаментінің аса маңызды істер жөніндегі аға жедел уәкілі:
- Бірақ біз осы күнге дейін алаяқтықтың жылдан жылға өсуін тоқтаттық. Ашылған қылмысқа тоқталсақ, 4 мыңға жуық қылмыстық іс сотқа жіберілді. 700-ге жуық күдікті ұсталынды. 7 мыңға жуық қылмыс өндірісте. 3,5 мыңдай қылмыс әртүрлі себептермен тоқтатылды. Және 3,5 мыңдай қылмыс қысқартылды деуге болады.

Алайда бұл алаяқтар айылын жиды деген сөз емес. Жуырда ғана Ұлттық банк арам пиғылдылар жасанды интеллектіге жүгінетіні жайлы мәлімдеме жасады. Бұған сан соғып қалған азаматтардың  шағымы себеп болған. Шын мәнінде Ұлттық банк жеке тұлғалармен жұмыс істемейді, демек оның атынан біреулердің хабарласуы мүмкін емес.

Асан Ахметжан, ҚР Ұлттық банкінің баспасөз хатшысы:
- Егер сізге біреулер қоңырау шалып, мысалы Ұлттық банктің атынан немесе Ұлттық банктің қызметкерлері атынан қоңырау шалып, қандай да бір ақпарат талап етсе, қандай да бір мәлімет сұрап жатса, бірден қоңырауды үзіп, Ұлттық банктің 1477 нөміріне колл-центріне хабарласқаныңыз абзал.

Жалпы, әлдебіреулер қандай да бір мәселені шешу үшін ақша талап етсе, не туған-туыс, дос-жаран ватсап, инстаграм не фейсбукте қарызға ақша сұрап жатса – асықпаңыз. Сарапшылар кез келген ақпаратты алдымен тексеріп алуға кеңес береді. Яғни ақша талап еткен, не қарыз сұраған адамға қоңырау шалып, мәселенің анық-қанығына көз жеткізген жөн.  

Авторлары: Бақыт Топтаева, Диас Қобланбаев