Generativna umetna inteligenca in potreba po zaščiti potrošnikov
7. marec 2024

Intenziven razvoj in uporaba orodij, ki temeljijo na generativni UI, vse glasneje zahtevata ustrezno obravnavo in ureditev tega področja.
Dodaj vsebino med priljubljene
Za dodajanje vsebine med priljubljene potrebujete uporabniški profil. Brezplačna registracija
Letos je organizacija Consumers International (CI) za temo svetovnega dneva pravic potrošnikov (15. marec 2024) izbrala problematiko umetne inteligence in vodi kampanjo z naslovom Pravična in odgovorna umetna inteligenca za potrošnike. Zveza potrošnikov Slovenije se kot članica CI pridružuje vsakoletni kampanji že 33 let.
Kaj bo prinesla nova evropska zakonodaja o umetni inteligenci?
Akt o umetni inteligenci, ki so ga države EU uradno potrdile februarja letos, je ključni del širše regulative Evropske unije za digitalno transformacijo in je tesno povezan s cilji paketa digitalne zakonodaje EU, ki ga sestavljata Akt o digitalnih trgih in Akt o digitalnih storitvah.
Paket je osredotočen na ustvarjanje pravičnejšega in varnejšega digitalnega okolja. Gre za prvo celovito zakonodajo o UI na svetu, ki bo urejala njeno uporabo v EU. Namen je zagotoviti boljše pogoje za razvoj in uporabo UI, obenem pa varnost, transparentnost in nediskriminatornost teh sistemov. Glede na stopnjo tveganja, ki ga povzroča UI, Akt o UI določa obveznosti za njene ponudnike in jih loči na štiri kategorije.
Obveznosti ponudnikov glede na stopnjo tveganja, ki ga povzroča UI
1 - Nesprejemljivo tveganje
- Kognitivno-vedenjska manipulacija
- Socialno točkovanje
- Biometrični sistemi
- Identifikacija v realnem času na daljavo
2 - Visoka stopnja tveganja
Varnost proizvodov: sistemi UI v igračah, letalih, avtomobilih, medicinskih
pripomočkih, dvigalih …
Posebna področja: sistemi za biometrično identifikacijo za poučevanje, ocenjevanje, zaposlovanje, za tolmačenje, uporabo in izvrševanje zakonodaje.
3 - Omejeno tveganje
Minimalne zahteve glede preglednosti za sprejem informiranih odločitev.
Sistemi UI, ki manipulirajo s slikovnimi, zvočnimi ali video vsebinami (t.i. deepfakes).
4 - Generativna umetna inteligenca
Zahteve glede preglednosti: označevanje izvora vsebine.
Preprečitev nezakonite vsebine.
Objavljanje povzetkov avtorsko zaščitenih podatkov.
- Sistemi z nesprejemljivim tveganjem veljajo za grožnjo ljudem in so prepovedani, dovoljene so le nekatere izjeme v primerih kazenskega pregona.
- Sistemi z visoko stopnjo tveganja so tisti, ki negativno vplivajo na varnost ali temeljne pravice. Ocenjeni bodo pred vstopom na trg in nato redno skozi celoten življenjski cikel.
- Sistemi z omejenim tveganjem morajo uporabnika obvestiti o tem, da sodeluje z umetno inteligenco, da se lahko odloči, ali jih želi kljub temu še naprej uporabljati.
- Sistemi z nizko ali minimalno stopnjo tveganja ne bodo podvrženi dodatnim obveznostim, je pa predvideno oblikovanje etičnega kodeksa. Ta bo tudi ponudnike sistemov z nizko ali minimalno stopnjo tveganja spodbujal, da prostovoljno sledijo vsem obvezam, ki so jih dolžni spoštovati ponudniki sistemov z visoko stopnjo tveganja.
Generativna UI bo morala biti predvsem transparentna, naprednejši modeli naj bi prestali temeljito oceno stanja, njihovi ponudniki pa bodo morali Evropski komisiji poročati o vseh resnih incidentih.
Zakonodaja, kot je Akt o UI, je torej korak v pravo smer, vendar je to le prvi korak. Ključnega pomena je stalno spremljanje, upravljanje in prilagajanje zakonodajnih okvirov, da bodo lahko sledili hitremu tehnološkemu napredku.
Pri tem mora biti pozornost namenjena trem fazam razvoja in uporabe generativne UI.
Kaj nas skrbi: razvoj UI
Potrošniki in potrošniške organizacije smo zaskrbljeni glede načina, kako se UI razvija in na kakšen način pridobiva podatke za svoje delovanje.
Generativni modeli UI za svoje usposabljanje, učenje in ustvarjanje novih vsebin potrebujejo in izrabljajo velike količine podatkov, na podlagi katerih prepoznavajo posamezne vzorce in strukture. Tako ustvarjene vsebine so lahko besedila, slike, zvočni ali video posnetki, ki so običajno zelo podobni vsebini, ki jo ustvarja človek.
ChatGPT, Midjourney, Stable Diffusion in DALL-E so med najbolj znanimi storitvami generativne UI. Podjetja, kot so Microsoft, Google in Snapchat, so tehnologijo že vključila v svoje storitve, vključno z iskalniki, obdelavo besedil in klepetom.
Veliko pozornosti je zato treba nameniti vprašanju, kako so modeli UI zgrajeni, na kakšen način se razvijajo in ali je ta način pošten do potrošnikov.
Ali so podatki, uporabljeni za usposabljanje modela UI, zbrani zakonito in s soglasjem ljudi oziroma lastnikov intelektualnih pravic?
Ali je človeško delo, ki te podatke označuje in kategorizira, etično?
Razvijalci bi morali biti odprti in transparentni glede načina ustvarjanja orodja UI, ki ga bodo uporabljali potrošniki, podobno kot označevanje izdelkov ljudem pomaga razumeti, kaj je v njihovi hrani, tekstilu ali zdravilih.
Kaj nas skrbi: uporaba UI
Modele UI je treba potrošnikom v uporabo ponuditi na način, ki zagotavlja, da sta na prvem mestu potrošnik in varstvo njegovih pravic. Za ustrezno zaščito potrošnikov moramo vedeti, kakšen vpliv bo imel model UI na družbo, ko pride na trg.
V tem duhu v strokovni javnosti poteka tudi razprava, ali naj bodo modeli UI, ki so na voljo potrošnikom, odprtokodni (izvorna koda modela je odprta za javnost in na voljo za uporabo vsem) ali zaprtokodni (so zasebni in na voljo le razvijalcem določenega modela).
Pomembno pa je zagotoviti, da razvijalci razkrijejo tveganja, ki jih modeli lahko predstavljajo za potrošnike ali družbo na splošno, in dovolijo raziskovalcem ali organom pregona, da neodvisno preverjajo njihovo etičnost in varnost.
Stvari lahko rešujemo le z roko v roki, zato morajo imeti organi pregona vsa potrebna sredstva in pristojnosti za spremljanje tehnološkega razvoja in za ukrepanje proti podjetjem, ki uporabljajo generativno UI brez upoštevanja zakonodaje.
Modeli UI imajo potencial, da sprožijo novo dobo napačnih informacij in dezinformacij, saj je zdaj lažje kot kdaj koli prej z njimi prevarati ljudi. Generativna UI lahko ustvari zavajajoče posnetke (deepfake), ki so priljubljeno orodje prevarantov predvsem v času volitev, pa tudi potvorjen zvok in slike.
Vse to je poceni, preprosto dostopno in veliko bolj izpopolnjeno ter realistično kot v preteklosti. Tudi izdelava je lažja, saj ni treba, da smo strokovnjaki s področja UI ali programiranja.
S tem lahko posameznikom, ranljivim skupinam in družbi na splošno nastane velika škoda, saj je z uporabo tovrstnih modelov veliko težje opaziti, da gre za prevaro. To je nekaj, proti čemur se moramo boriti vsi.
Kaj nas skrbi: odgovornost za učinke tehnologije UI
Če naj bo tehnologija UI nekaj dobrega in če naj podpira razcvet posameznikov in družbe, namesto da jo spodkopava, je nujno ne samo, da pridobimo globlje razumevanje njenega vpliva na človekove pravice in temeljne svoboščine, ampak tudi, da skrbno preučimo vprašanje, kdo bi moral biti odgovoren za njene škodljive posledice.
Če sistem UI ustvari težavo za človeka, kdo je kriv in kdo bi moral to popraviti?
Veliko je bilo napisanega o potencialu UI in drugih tehnologij, da nepravično diskriminirajo ali spodbujajo pristranskosti, manj pa o tem, kdo bi moral biti za to odgovoren.
V prihodnosti bodo algoritmi UI v imenu ljudi in za ljudi sprejemali vedno več odločitev, na primer pri kreditiranju, zdravstvenem varstvu, zavarovanju ali zaposlovanju, zato moramo zagotoviti zanesljive postopke za reševanje težav, ki so se že in se še bodo pojavile. Vzpostaviti bo treba določene ravni odgovornosti v industriji, vladi in civilni družbi ter določiti pritožbene postopke in druge načine izpodbijanja odločitev, ki jih bodo sprejeli algoritmi UI.
Vprašanje odgovornosti vključuje tudi vprašanje pravice do odškodnine za potrošnike, razkritje vladnih zahtev za dostop do podatkov in morebitne kršitve intelektualne lastnine.
Obdobje generativne UI, v katerega se svet pospešeno podaja, označujejo številne priložnosti in tudi izzivi.
Z ustvarjanjem okolja transparentnosti, odgovornosti in sodelovanja lahko zagotovimo, da bo ta vplivna tehnologija orodje za napredek in omogočanje uspeha v digitalnem svetu.
Pri tem se moramo zavedati, da prihodnost generativne UI ni vnaprej določena; od nas je odvisno, ali bomo pravočasno podčrtali smer njenega razvoja z odgovornostjo in zavezanostjo k dobrobiti vseh deležnikov.
Besedilo: Tanja Piškur in Petra Lovišček
Celoten članek je objavljen v reviji ZPStest, številka 3, marec 2024

ZPStest marec 2024
Kot je v uvodniku v marčevsko številko revije ZPStest, ob svetovnem dnevu varstva pravic potrošnikov, zapisala predsednica Zveze potrošnikov Slovenije, Breda Kutin je, danes, biti potrošnik služba za polni delovni čas.
7,25 €
Sveže e-novice ZPS, vsak petek
Ste z zanimanjem prebrali ta članek?
Prijavite se na e-novice ZPS za še več aktualnih in koristnih vsebin.
Politika varovanja osebnih podatkov
Sorodne objave
Nazaj na seznam objavPostanite član Zveze potrošnikov Slovenije
ZPS je neodvisna in neprofitna organizacija, že
več kot 30 let na strani potrošnikov.
Pridobite dostop do kakovostnih vsebin:
- Revija ZPStest: 12 številk v 10 izvodih, dostop le prek spleta ali z dostavo na dom
- Dostop do vseh testov in drugih plačljivih vsebin
- Pravno svetovanje pri potrošniških težavah
- Svetovanje o kakovosti in varnosti gospodinjskih aparatov ter zabavne elektronike
Že od 69,60 € / na leto
Primerjalne teste izdelkov in storitev financirajo člani ZPS s plačilom članarine. S plačilom posameznega testa tako tudi vi omogočate izvedbo primerjalnih testov. Zaradi zagotavljanja popolne neodvisnosti ZPS kot potrošniška, organizacija ne sprejema donatorskih in sponzorskih prispevkov podjetij.