Koje podatke prikupljaju AI asistenti i kako se zaštititi

  • AI asistenti prikupljaju sve, od podataka o kontaktima i korištenju do financijskih, zdravstvenih i drugih vrlo osjetljivih informacija.
  • Platforme poput Mete, Googlea ili ekstenzija za preglednik primjenjuju intenzivno praćenje koje predstavlja rizik od manipulacije, curenja informacija i zloupotrebe.
  • Regulacija, transparentnost i opcije kontrole su i dalje nedovoljne, tako da bi korisnici trebali prakticirati minimizaciju i anonimizaciju.
  • Budućnost obuke modela kombinuje stvarne podatke, sintetičke podatke i samousavršavanje, čineći zaštitu privatnosti još važnijom.

Koje podatke prikupljaju umjetne inteligencije?

Umjetna inteligencija živi i diše podatke.Svaka interakcija s AI asistentom, chatbotom ili ekstenzijom preglednika hrani modele koji uče iz našeg ponašanja. Ova "glad" za informacijama čini ove alate toliko korisnim za sažimanje tekstova, odgovaranje na e-mailove ili pomoć na poslu, ali također otvara vrata ozbiljnim rizicima za privatnost, sigurnost, pa čak i komercijalne ili geopolitičke manipulacije.

Danas, AI asistenti imaju pristup dijelovima naših digitalnih života koji su ranije bili izvan radara.: historija pregledavanjaPrikupljaju se obrasci koji sadrže bankarske ili zdravstvene informacije, privatni razgovori, poslovni dokumenti, fotografije, pa čak i liste mobilnih kontakata. Dok velike tehnološke kompanije traže načine da nastave obučavati moćne modele uprkos ograničenjima podataka, korisnici se snalaze u složenom okruženju gdje je pristanak često nejasan, s dugim, dvosmislenim i stalno promjenjivim politikama privatnosti.

Zašto AI asistentima treba toliko podataka i šta to znači za vašu privatnost

AI agenti i chatbotovi nisu samo „programi koji odgovaraju“To su sistemi koji donose odluke, daju preporuke, određuju prioritete sadržaju i sve više djeluju u naše ime (kupovina, rezervacije, upravljanje rasporedima, odgovaranje na e-mailove itd.). Da bi bili efikasni, potreban im je vrlo bogat kontekst o tome ko ste, šta radite i šta vas zanima, što ih navodi da prikupljaju lične podatke u velikim razmjerima.

Nedavna istraživanja su pokazala da mnogi asistenti preglednika pokretani umjetnom inteligencijom pristupaju izuzetno osjetljivim informacijama.U testovima provedenim sa popularne ekstenzijeIstraživači su otkrili da neki dodaci (plugins) šalju kompletan sadržaj posjećenih stranica na svoje servere, uključujući obrasce s bankovnim podacima, zdravstvenim informacijama ili bilo kojim podacima vidljivim na ekranu, pored IP adrese i metapodataka koji omogućavaju zaključivanje o dobi, spolu, nivou prihoda ili interesima.

Rizik nije samo u tome što znaju mnogo o vama, već i u tome šta mogu učiniti s tim informacijama.Stručnjaci za kibernetičku sigurnost upozoravaju na moguće scenarije komercijalne manipulacije (pristrasne preporuke na osnovu vašeg profila), diskriminaciju ili isključivanje (na primjer, ograničavanje ponuda ili usluga na određene grupe), iznudu ako podaci procure, pa čak i krađu identiteta ako se kombinuju različiti izvori informacija.

Veliki osnovni problem je neprozirnost.Mnogi korisnici su svjesni da pretraživači i društvene mreže prikupljaju podatke za oglašavanje, ali ne zamišljaju da bi asistent integriran u preglednik mogao pratiti značajan dio njihovih online aktivnosti. U mnogim slučajevima, ovo prikupljanje podataka se odvija bez istinski informiranog pristanka i ponekad zaobilazi granice propisa o zaštiti podataka ili direktno protivrječi vlastitim uslovima korištenja kompanije, koje mnogi Prihvataju bez čitanja.

Koje podatke prikupljaju AI asistenti i koje su razlike između platformi?

Podaci koje prikupljaju AI asistenti kreću se od osnovnih informacija do intimnih detalja.Najčešće vrste podataka uključuju kontakt informacije (ime, e-mail, broj telefona), tačnu ili približnu lokaciju, identifikatore uređaja, historiju korištenja, sadržaj razgovora, otpremljene datoteke, podatke o kupovini i, u nekim slučajevima, lista kontakata korisnika.

Komparativne studije neke učesnike svrstavaju u posebno "proždrljive"U oblasti konverzacijskih chatbotova, primijećeno je da određena rješenja mogu prikupljati više od dvadeset različitih vrsta podataka po korisniku, raspoređenih u brojne kategorije: kontakt, lokacija, sadržaj koji pišete ili prenosite, historija aktivnosti, jedinstveni identifikatori, dijagnostičke informacije, obrasci korištenja, obavljene kupovine, pa čak i lista kontakata telefona, nešto što gotovo nijedan drugi chatbot danas ne radi.

Na suprotnom kraju spektra su rezervisaniji posjetioci.Oni bilježe samo nekoliko osnovnih atributa vezanih za komunikaciju i tehnički rad usluge (kao što su identifikatori ili dijagnostički podaci). Između njih se nalazi širok spektar alata kao što su Claude, Copilot, DeepSeek, ChatGPT i drugi. Zbunjenostkoji se razlikuju po tome koliko vrsta podataka prikupljaju, koje kategorije pokrivaju i za šta ih koriste, posebno u vezi s oglašavanjem ili dijeljenjem s trećim stranama.

Ne ponašaju se svi asistenti isto kada su integrirani u preglednik. En ekstenzije za Chrome, Edge ili druge preglednike Posebno invazivne prakse su otkrivene: dodaci koji bilježe bankarske i zdravstvene obrasce, drugi koji šalju korisnička pitanja zajedno s identifikatorima analitičkim servisima poput Google Analyticsa, omogućavajući praćenje na više web-stranica, i nekoliko koji grade detaljne profile (dob, spol, prihod, hobiji) za personalizaciju odgovora u različitim sesijama.

Jedan upečatljiv slučaj je onaj određenih alata koji, prema analizama, gotovo da ne pokazuju znakove profiliranja ili personalizacije. Za razliku od drugih ekstenzija koje masovno prate aktivnost pregledavanja, ove ekstenzije su upravo razlog zašto ih neki istraživači ističu kao primjer kako je tehnički moguće pružiti korisnu AI uslugu bez potpunog iskorištavanja ličnih podataka korisnika.

Meta AI i skok ka masovnoj eksploataciji osjetljivih podataka

Integracijom svog asistenta u Facebook, Instagram i druge servise, Meta prelazi novu granicu u korištenju ličnih podataka.Poslovni model više nije usmjeren isključivo na privlačenje pažnje putem prikaznih oglasa, već na iskorištavanje direktnih interakcija s korisnikom, u vrlo specifičnim kontekstima i prepunim intimnih informacija.

Analiza praksi prikupljanja podataka od različitih chatbotova pokazuje da je Meta AI daleko jedan od najproždrljivijih.Sve pregledane aplikacije prikupljale su korisničke podatke; gotovo polovina je pratila geolokaciju, a gotovo trećina je prakticirala praćenje oglašavanja, unakrsno upućivanje informacija s drugim uslugama ili prodaju posrednicima podataka. Ali Meta AI se ističe jer je, prema studiji, jedina koja eksplicitno prikuplja finansijske, zdravstvene i fitnes informacije.

Ali tu ne staje: Meta AI također prikuplja posebno osjetljive kategorijeTo uključuje podatke kao što su rasno ili etničko porijeklo, seksualna orijentacija, podaci o trudnoći ili porođaju, invaliditet, vjerska ili filozofska uvjerenja, članstvo u sindikatu, politička mišljenja, kao i genetske i biometrijske informacije. Ova vrsta podataka je posebno zaštićena propisima poput GDPR-a, jer njihova zloupotreba može dovesti do diskriminacije, progona ili ozbiljnih rizika za temeljna prava.

Osim toga, Meta AI dijeli određene informacije s trećim stranama u kontekstu ciljanog oglašavanjaZajedno s Copilotom, to je među rijetkim asistentima koji koriste podatke vezane za identitet korisnika za komercijalne kampanje, ali se jasno razlikuje po obimu i raznolikosti uključenih informacija, s više od dvadeset vrsta korištenih podataka u usporedbi s mnogo nižim brojkama u drugim servisima.

Pristup je pojačan ekosistemom brokera podataka. koje kupuju i prodaju lične podatke prikupljene iz aplikacija, web stranica i javnih baza podataka. Kompanije poput Acxioma, Experiana, Epsilona i Oracle Data Clouda obrađuju ogromne količine profila, koji mogu završiti u rukama oglašivača, osiguravatelja, poslodavaca, pa čak i vladinih agencija, na globalnom tržištu koje je i dalje uglavnom neregulirano uprkos određenom zakonodavnom napretku.

Google Gemini, promjene pravila i kontrola aktivnosti

Gemini app

Google je također napravio korak ažuriranjem svojih politika privatnosti kako bi uključio korištenje interakcija sa svojim ekosistemom umjetne inteligencije.Putem Geminija, kompanija navodi da može koristiti upite, otpremljene datoteke, snimke ekrana i fotografije koje dijelite kako bi poboljšala svoje usluge i obučila generativne AI modele, uključujući audio i snimke iz funkcija poput Gemini Live-a.

Kao odgovor na kritike, Google je uveo funkciju pod nazivom "Privremeni razgovor"Ova funkcija je osmišljena da ograniči korištenje vaših nedavnih pretraga u svrhu personalizacije ili obuke. Međutim, korisnik je mora aktivirati i biti proaktivan u konfigurisanju opcija kao što su onemogućavanje zadržavanja aktivnosti ili upravljanje i brisanje stavki historije; u suprotnom, značajan dio njihovog digitalnog života ostat će dostupan kompaniji.

Kompanija priznaje da kada koristi aktivnosti korisnika za poboljšanje svojih usluga, koristi i ljudske recenzente.U tu svrhu, tvrdi da prekida vezu između razgovora i računa prije nego što ih pošalje pružaocima usluga. Uprkos tome, izričito priznaje da "kao i prije" koristi ove lične podatke i dijeli ih s trećim stranama za određene zadatke, što dovodi u sumnju stvarni stepen anonimnosti i efikasnu zaštitu informacija.

Ovaj pristup postavlja neugodna pitanja o pristankuMnogi korisnici prihvataju nove uslove privatnosti gotovo automatski, bez čitanja, iz čiste inercije ili straha od gubitka pristupa usluzi. Time daju široke dozvole za korištenje ličnih podataka bez potpunog razumijevanja implikacija, što neki stručnjaci smatraju "sumnjivim" kada se klauzule prošire upravo tako da pokrivaju obuku modela vještačke inteligencije.

U regulatornoj sferi, sve se ovo preklapa sa zahtjevima za usklađenost kao što je evropski GDPR.Ovi propisi zahtijevaju opravdanje pravnog osnova za obradu (saglasnost, legitimni interes, zakonska obaveza itd.) i garantovanje prava pristupa, ispravke, prigovora i brisanja. Debata o tome da li je prihvatljivo pozivati ​​se na „legitiman interes“ za obuku sistema vještačke inteligencije ličnim podacima bez izričitog pristanka veoma je aktivna među organima za zaštitu podataka i udruženjima potrošača.

Privatne poruke, pohrana datoteka i gdje vaši podaci zapravo završavaju

Aplikacije za razmjenu poruka su jedno od najosjetljivijih digitalnih okruženjaZato što sadrže intimne razgovore, fotografije, dokumente i sve vrste povjerljivih informacija. Ideja da bi AI asistent mogao da špijunira ove poruke bez izričitog pristanka izaziva ozbiljne zabrinutosti u vezi s privatnošću i potkopava povjerenje mnogih korisnika.

U slučaju WhatsAppa, kompanija insistira na tome da lični razgovori s prijateljima i porodicom nisu dostupni vještačkoj inteligenciji.Objašnjavaju da se njihovi modeli obučavaju kroz direktne interakcije sa specifičnim AI računom: morate aktivno otvoriti chat sa AI-jem ili mu poslati poruku, a ni Meta ni WhatsApp ne mogu pokrenuti taj razgovor umjesto vas. Također naglašavaju da interakcija sa AI-jem ne povezuje automatski vaš WhatsApp račun sa Facebookom, Instagramom ili drugim aplikacijama u grupi.

Uprkos tome, sama kompanija upozorava da ono što pošaljete toj vještačkoj inteligenciji može biti korišteno da vam pruži tačne odgovore.i eksplicitno preporučuje ne dijelite informacije koje ne želite da Meta zna. Ovo jasno pokazuje da, iako postoje formalne barijere između servisa, svaki sadržaj koji odlučite uvesti u AI chat ulazi u krug obrade i potencijalno se analizira u svrhu obuke.

Servisi za pohranu i prijenos datoteka također su bili predmet kontroverzi.Nedavni primjer bila je promjena uslova korištenja poznate usluge za prijenos datoteka, čije su nove klauzule protumačene kao davanje široke dozvole za korištenje otpremljenih dokumenata za poboljšanje budućih AI sistema. Negativne reakcije korisnika prisilile su kompaniju da pojasni da sadržaj ostaje vlasništvo pošiljatelja, da je njegova upotreba ograničena na rad i poboljšanje usluge i da se neće koristiti za obuku AI modela niti prodavati trećim stranama. Također je bilo važno zapamtiti da postoje alternative za lokalno upravljanje vašim datotekama i fotografijama, kao što su [ovdje umetnite alternative]. Fotoprizma.

Ovakvi incidenti pokazuju u kojoj mjeri povjerenje zavisi od transparentnosti.Ako su pravni tekstovi dvosmisleni ili ostavljaju utisak da otvaraju vrata nepredviđenim upotrebama, korisnik pretpostavlja najgore. Nadalje, kada se legitimne svrhe (sigurnost, performanse, održavanje) pomiješaju s generičkim konceptima poput "poboljšanja naših usluga", postaje teško znati da li vaši dokumenti završavaju kao puki tehnički promet ili kao dio gigantskog skupa podataka za obuku.

Situacija postaje složenija kada se u igru ​​ubace visokorizični dobavljači i osjetljive lokacije za skladištenje.U slučaju nekih asistenata razvijenih izvan EU, dokumentovana su značajna curenja razgovora i logova, a činjenica da se serveri nalaze u jurisdikcijama sa blažim propisima o zaštiti podataka povećava izloženost korisnika. Ovdje nije važno samo koliko se podataka prikuplja, već i gdje se pohranjuju i pod kojim zakonima se ta obrada reguliše.

Rizici kibernetičke sigurnosti, sveprisutni podaci i potreba za regulacijom

Kombinacija napredne umjetne inteligencije i velikih količina ličnih podataka je zlatni rudnik za sajber kriminalce.Napadači sve više koriste alate umjetne inteligencije za usavršavanje kampanja društvenog inženjeringa, generiranje vjerodostojnih phishing e-poruka, profiliranje žrtava i automatizaciju krađe identiteta ili financijskih prevara.

Ako AI asistent pohranjuje historiju razgovora, dokumente i osjetljive podatke bez dovoljnih sigurnosnih mjeraJedan jedini prodor može otkriti informacije u ogromnim razmjerima. Za razliku od lozinke koju možete promijeniti, podatke poput vaše medicinske historije, političkih mišljenja ili seksualne orijentacije, jednom kada procure, praktično je nemoguće "poništiti".

Izvještaji o otpornosti na kibernetičku sigurnost pokazuju da većina organizacija nije spremna. kako bi zaštitili sisteme i procese pokretane umjetnom inteligencijom. Mnogima nedostaju osnovne sigurnosne prakse i prakse upravljanja podacima, nisu definirali jasne politike o tome šta se može, a šta ne može uvesti u alate umjetne inteligencije i nisu prilagodili svoju cloud infrastrukturu za upravljanje ovom novom vrstom rizika. Nadalje, neke prijetnje potiču od naizgled legitimnih usluga; stoga je važno pratiti pružatelje usluga i aplikacije, uključujući određeni VPN-ovi koji kradu podatkešto može povećati izloženost.

S obzirom na ovaj scenario, stručnjaci pozivaju na strože i specifičnije propise za vještačku inteligenciju.Govori se o pojačanim obavezama transparentnosti (jasno naznačiti koji se podaci prikupljaju i u koju svrhu), eksplicitnoj saglasnosti za osjetljivu upotrebu, minimalnim sigurnosnim standardima za pametne uređaje i usluge i dodatnim ograničenjima za pružatelje usluga koji se smatraju visokorizičnim. Evropski propisi o umjetnoj inteligenciji i zaštiti podataka pokušavaju se kretati u tom smjeru, ali njihova praktična primjena je još uvijek u razvoju.

Također je naglašena važnost integriranja privatnosti i sigurnosti "po dizajnu".Umjesto da propise smatraju preprekom, neki stručnjaci tvrde da uključivanje zaštite digitalnog otiska od početka svakog projekta čini rješenja robusnijim i efikasnijim na dugi rok, te izbjegava situacije u kojima se zakrpe moraju improvizirati nakon incidenta u vezi s privatnošću ili regulatorne sankcije.

Sintetički podaci, samousavršavanje umjetne inteligencije i budućnost obuke modela

Koje podatke prikupljaju AI asistenti?

Digitalna pozadina koja prikazuje inovativne tehnologije u sigurnosnim sistemima, internet tehnologije zaštite podataka

Oslanjanje na podatke iz stvarnog svijeta stvara usko grlo za razvoj sve moćnijih modela.Velike tehnološke kompanije znaju da ne mogu beskonačno zasnivati ​​svoj napredak na iskorištavanju ličnih podataka bez ograničenja, kako iz etičkih razloga, tako i zbog sve većih zakonskih ograničenja. Zato istražuju alternativne načine za obuku vještačke inteligencije bez prevelikog oslanjanja na korisničke podatke.

Jedan od tih puteva je "samousavršavanje" umjetne inteligencije.Sistemi sposobni da optimizuju vlastite performanse kroz poboljšane algoritme, procese samoprogramiranja i efikasniji hardver (posebno u području procesora). Laboratorije u kompanijama poput Mete i Google DeepMind rade na modelima koji se, dijelom, sami obučavaju ili usavršavaju, smanjujući potrebu za novim, označenim ljudskim podacima.

Još jedan ključni put je generiranje sintetičkih podatakaUmjesto jednostavnog učenja iz onoga što već postoji, model može kreirati nova iskustva ili primjere na osnovu onoga što je naučio, a zatim ih koristiti za nastavak obuke. Na ovaj način, sistem više nije ograničen nedostatkom stvarnih podataka i može proizvesti gotovo neograničene količine simuliranih informacija kako bi poboljšao svoje performanse na određenim zadacima.

Praktične primjene ovog pristupa već počinju da se pojavljuju.Specijalizovani alati za pomoć pri programiranju, kao što su asistenti za kod, demonstriraju kako model može učiti iz vlastitog izlaza, ispravljati greške, usavršavati stilove i predlagati sve sofisticiranija rješenja bez potrebe za ručnim pregledom svake ljudske instance. Startupi eksperimentišu s agentima koji modificiraju vlastiti kod kako bi se bolje prilagodili zadacima s kojima se suočavaju, stvarajući kontinuirani ciklus testiranja i poboljšanja.

Međutim, ova „autonomija“ u obuci nije bez rizika.Organizacije posvećene procjeni rizika umjetne inteligencije upozoravaju da ako je sistem u stanju brzo proširiti vlastite mogućnosti, mogao bi biti prenamijenjen za zlonamjerne aktivnosti, od naprednog hakiranja do dizajna oružja ili masovne manipulacije ljudima putem prilagođeno generiranog sadržaja.

Realnost je da, dok kompanije istražuju sintetičke podatke i samousavršavaju se, trenutni sistemi se i dalje uveliko oslanjaju na informacije iz stvarnog svijeta.Više od 80% organizacija analiziranih u nekim studijama još uvijek nema zrele prakse za osiguranje svojih AI modela, zaštitu prometa podataka ili zaštitu svoje cloud infrastrukture. Jaz između brzine usvajanja AI i odbrambenih sposobnosti pretvara se u stalno rastuću površinu za napad.

Najbolje prakse za korisnike: šta ne treba dijeliti i kako se zaštititi prilikom korištenja umjetne inteligencije

Glavna odbrana korisnika ostaje zdrav razum, ako se primjenjuje rigorozno.Koliko god prijateljski izgledao chatbot, on nije vaš pouzdani kolega: to je interfejs ka serverima koji mogu snimati, analizirati i ponovo koristiti ono što kažete. Uvijek pretpostavljajte da sve što unesete može biti pohranjeno duže nego što mislite.

Izbjegavajte dijeljenje ličnih podataka (PII) osim ako to nije apsolutno neophodnoTo uključuje puno ime, poštansku adresu, ličnu e-mail adresu, broj telefona, datum rođenja ili lične dokumente. Kada se nekoliko ovih podataka kombinuje, mnogo je lakše napraviti vaš profil i povezati vaše razgovore sa stvarnim identitetom.

Nikada ne unosite finansijske podatke ili sigurnosne podatkeBrojevi kreditnih kartica, podaci o bankovnim računima, lozinke, PIN kodovi ili kodovi za dvofaktorsku autentifikaciju nikada se ne smiju dijeliti s AI chatbotom. Ovom vrstom podataka upravljajte samo na službenim platformama s end-to-end enkripcijom i specifičnim sigurnosnim mjerama.

Držite brojeve socijalnog osiguranja, podatke o pasošu i druge visokorizične identifikatore podalje od chatbotovaOni su omiljena meta za krađu identiteta i, za razliku od kreditne kartice, nije ih lako zamijeniti ako su kompromitovani. Smatrajte ove akreditivne podatke "radioaktivnim materijalom" koji ne treba unositi u sisteme čiji unutrašnji rad ne razumijete.

U akademskom, institucionalnom ili korporativnom okruženju, budite posebno oprezni s onim što dijelite.Ne postavljajte akademske transkripte, baze podataka sa zaštićenim informacijama, interne izvještaje, strateške planove, osjetljive finansijske dokumente ili neobjavljenu intelektualnu svojinu. Mnoge organizacije izričito zabranjuju slanje ove vrste sadržaja javnim AI servisima, a mogli biste prekršiti i interna pravila i zakone o zaštiti podataka.

Usvojite strategiju minimizacije podataka i anonimizacije u svojim upitimaNavedite samo informacije koje su potrebne da vam asistent može pomoći: uklonite imena, adrese i specifične reference na stvarne osobe ili projekte i zamijenite prepoznatljive elemente generičkim oznakama kao što su "Klijent A", "Kompanija X" ili "Grad Y". Pregledajte svoje poruke prije slanja kako biste bili sigurni da nisu uključene nikakve osjetljive informacije.

Povremeno pregledajte politiku privatnosti i opcije kontrole svake usluge.Neke platforme vam omogućavaju da onemogućite korištenje vaših razgovora u svrhu obuke, izbrišete stare historije razgovora ili aktivirate privremene načine razgovora koji smanjuju vrijeme zadržavanja. Aktivirajte ove funkcije kad god je to moguće i nemojte pretpostavljati da su omogućene po zadanim postavkama.

Sa tehničke tačke gledišta, to jača vašu osnovnu sigurnostKoristite snažne, jedinstvene lozinke za svaki AI račun, omogućite dvofaktorsku autentifikaciju kad god je to moguće, izbjegavajte povezivanje s neosiguranih javnih Wi-Fi mreža i ažurirajte svoje uređaje. Pridržavajte se politika vaše organizacije u vezi s korištenjem AI alata, posebno ako radite s osjetljivim informacijama.

Konačno, to zahtijeva transparentnost i odgovornost od pružatelja usluga umjetne inteligencije.Alati bi trebali jasno navesti da su automatizirani sistemi, objašnjavajući na razumljiv način koje podatke prikupljaju i u koje svrhe, ko može pristupiti tim informacijama i kako ostvariti svoja prava pristupa, ispravke, brisanja ili prigovora. Etički dizajn također uključuje mjere za ublažavanje pristranosti, izbjegavanje opasnih preporuka i odgovarajuću eskalaciju slučajeva visokog rizika.

U ekosistemu u kojem vještačka inteligencija sve više utiče na naš svakodnevni život, razumijevanje šta asistenti za podatke prikupljaju, kako se koriste i koje opcije kontrole imamo ključno je za nastavak korištenja njihovih prednosti bez žrtvovanja naše privatnosti.Kombinacijom strožih propisa, odgovornih kompanija i dobro informisanih korisnika, moguće je imati koristi od ovih sistema bez gubitka kontrole nad informacijama koje nas najbolje definišu.

Siguran pregledač
Vezani članak:
Najbolji web pretraživači koji poštuju vašu privatnost