Қазіргі кезде жасанды интеллектің қауіптері де өте көп. Жасанды интеллект ІТ маманынының айтуынша, үнемі дұрыс ақпаратты бере бермейді. Ол ғаламторда жиналған шын-өтірігі аралас ақпараттың барлығын бір жүйеге топтастырады. Түрлі сайттар жасанды интеллекттің көмегімен жеке тұлғалар туралы ақпараттың шын-өтірігін араластырып ашық түрде жариялайды. Бұл туралы Адырна порталына сілтеме жасаған «4tagan.kz» ақпараттық агенттігі жазады.
«Сондай-ақ, интернет алаяқтар нейрондық желілердің барлық қол жетімді артықшылықтарын өздерінің мақсаттары үшін пайдаланады. Мәселен, танымал адамдардың суретін пайдалану арқылы халықтан ақша алу немесе алдау. Одан бөлек, жалған дауыстарды жасайтын нейрондық желі шықты. Алаяқтар оны бірден қолдана бастады. Дауысыңызды жүктеп салсаңыз болғаны, нейрондық желі сіздің дауысыңызды тез есте сақтап, көшіріп алады. Қазіргі күні мұндай әрекеттер жиі кездесіп жатады. Баласының дауысы арқылы ата-анасына хабарласып, ақша сұрайтындар да кездесуде”,- дейді ІТ маманы.
Мамандардың айтуынша, жасанды интеллект арқылы жалған ақпарат тарататындар көп. Ал әлеуметтік желілерде адамдардың ақпараттық сауатының нашар болуынан бірден сеніп жатады. Тіпті, халықты дүрліктіріп, шу тудыратындар да кездеседі.
“Жасанды интеллект болашақта дамып, үлкен саяси додаларда адамдардың көзқарасына әсер етуі, әртүрлі манипуляциялық мақсаттарда пайдалануы мүмкін. Қазіргі заманғы машиналық оқыту алгоритмдері шынайы мәтіндерді, кескіндерді және тіпті аудио жазбаларды жасай алады. Бұл жалған жаңалықтарға, қоғамдық пікірді манипуляциялауға және қаржы нарығындағы алаяқтыққа жол ашады. Дегенмен, мұның жазасы бар екенін ұмытпаған жөн”,- деді Мейіржан Әуелханұлы.