конзорцијум схерпа: ако би се Аи могао осећати, плашио би се цибер напада од људи | тецхповеруп - Схерпа

Конзорцијум СХЕРПА: Ако би АИ могао да се осети, плашио би се цибер напада од људи



Artificial intelligence (AI) is rapidly finding applications in nearly every walk of life. Self-driving cars, social media networks, cyber security companies, and everything in between uses it. But a new report published by the SHERPA consortium - an EU project studying the impact of AI on ethics and human rights that F-Secure joined in 2018 - finds that while human attackers have access to machine learning techniques, they currently focus most of their efforts on manipulating existing AI systems for malicious purposes instead of creating new attacks that would use machine learning.

Основни фокус студије је на томе како злонамерни актери могу злоупотребити АИ, машинско учење и паметне информационе системе. Истраживачи идентификују разне потенцијално злонамерне намене за АИ које су добро доступне данашњим нападачима, укључујући креирање софистицираних кампања за дезинформацију и друштвени инжењеринг. И док истраживање није пронашло дефинитиван доказ да злонамерни актери тренутно користе АИ за напајање сајбер нападима, они истичу да противници већ нападају и манипулишу постојећим АИ системима које користе претраживачи, компаније за друштвене медије, веб локације са препорукама и друго.
Анди Пател, Ф-Сецуре, истраживач из компанијског Центра изврсности интелигенције, сматра да би многи људи то изненадили. Популарни портрети АИ инсинуирају да ће се окренути против нас и почети самостално да напада људе. Али тренутна стварност је да људи редовно нападају АИ системе.

'Неки људи погрешно изједначавају машинску интелигенцију са људском интелигенцијом и мислим да зато они повезују претњу АИ са роботима убицама и ван рачунара који управљају', објашњава Пател. „Али, људски напади против АИ-ја се заправо дешавају стално. Сибил напади дизајнирани да отровају АИ системе које људи свакодневно користе, попут система препорука, уобичајена су појава. Постоје чак и компаније које продају услуге које подржавају такво понашање. Иронично је да се данашњи АИ системи морају више плашити људи него обрнуто. '

Сибил напади укључују један ентитет који ствара и контролише више лажних рачуна како би манипулирао подацима које АИ користи за доношење одлука. Популарни пример овог напада је манипулирање рангирањем претраживача или системима препорука за промоцију или умањивање одређеног дела садржаја. Међутим, ови напади се могу користити и социјално инжењерским појединцима у циљаним сценаријима напада.

'Ове врсте напада већ су изузетно тешке за откривање даватеља услуга на мрежи и вероватно је да је ово понашање далеко раширеније него што неко у потпуности разуме', каже Пател, који је на Твиттеру обавио опсежно истраживање сумњивих активности.

Али можда ће им АИ-ова најкориснија апликација за нападаче у будућности помагати у стварању лажног садржаја. Извештај напомиње да је АИ напредовао до тачке у којој може да створи изузетно реалистични писани, аудио и визуелни садржај. Неки модели АИ су чак ускраћени за јавност како би се спречило да их нападачи злостављају.

„Тренутно је наша способност стварања уверљивог лажног садржаја далеко софистициранија и напреднија од наше способности откривања. А АИ нам помаже да будемо бољи у изради аудио, видео записа и слика, што ће дезинформације и лажни садржај учинити сложенијим и тежим за откривање “, каже Пател. 'И постоји много различитих апликација за убедљив, лажни садржај, па очекујем да би могао постати проблем.'

Студију је произвела компанија Ф-Сецуре и њени партнери у СХЕРПА - пројекту финансираном од стране ЕУ који је 2018. године основало 11 организација из 6 различитих земаља. Додатни налази и теме обухваћене истраживањем укључују:
  • Противници ће наставити да уче како да компромитују АИ системе док се технологија шири
  • Број начина на који нападачи могу да манипулишу излазима АИ отежава откривање и појачавање таквих напада
  • Овлаштења која се такмиче за развој бољих типова АИ у офанзивне / одбрамбене сврхе могу завршити 'АИ трку у наоружању'
  • Заштита АИ система од напада може проузроковати етичке проблеме (на пример, појачано надгледање активности може нарушити приватност корисника)
  • АИ алати и модели развијени од стране напредних актера претњи са добро финансираним средствима на крају ће се проширити и усвојити их од стране ниже квалификованих противника
    Координатор пројекта СХЕРПА, професор Бернд Стахл са Универзитета Де Монтфорт Леицестер, каже да улога Ф-Сецуреа у СХЕРПА-у као једином партнеру из индустрије кибернетичке сигурности помаже у реализацији пројекта како злонамерни актери могу користити АИ да поткопају поверење у друштво.
'Циљ нашег пројекта је разумети етичке и последице људских права из АИ и аналитике великих података како би се помогло у развоју начина за њихово решавање. Овај рад мора бити з��снован на добром разумевању техничких могућности и рањивости, кључном подручју стручности које Ф-Сецуре доприноси конзорцијуму “, каже Стахл. „Не можемо имати значајне разговоре о људским правима, приватности или етичности у АИ без разматрања цибер сигурности. И као поуздан
Извор сазнања о безбедности, прилози Ф-Сецуре-а су централни део пројекта. '

The full-length study is currently available here. More information on artificial intelligence and cyber security is available on F-Secure's blog, or F-Secure's News from the Labs research blog.