HTCinside
Medtem ko se najnovejše tehnologije uvajajo v vsakdanje življenje ljudi, da bi olajšale življenje, se zdi, da politiki razmišljajo o načinih, kako bi jih uporabili za izpolnitev svojih zahtev, ko gre za politiko in volitve.
Pred kratkim je bil Manoj Tiwari, indijski politik, v novicah, ker je uporabil umetno inteligenco, da se je zdelo, kot da govori stvari, ki jih v resnici ni rekel. Videli so ga, kako govori domači indijski jezik Haryanvi, narečje hindijščine, ki se razlikuje od angleške različice, v kateri je bil posnet video.
Podjetje, odgovorno za to, The Ideaz Factory, je pojasnilo, da je bil video ustvarjen za 'pozitivno' kampanjo lokalne vladajoče stranke Bharatiya Janata Party, ki ji Tiwari pripada. To je bilo doseženo s tehnologijo deepfake.
Deepfake je kombinacija besed Deep learning in fake. Gre za uporabo tehnologije globokega učenja za ustvarjanje lažnih videoposnetkov. To globoko učenje združujejo druga zmogljiva orodja, kot sta strojno učenje in umetna inteligenca. Uporabljeno strojno učenje vključuje usposabljanje arhitektur nevronskih mrež, kot so samodejni kodirniki in generativna kontradiktorna omrežja.
Ta tehnologija lahko prisili osebo v videoposnetku, da počne stvari, ki jih prvotno ni počela, na primer, da se obnaša na določen način ali govori stvari ali pa jo popolnoma nadomesti nekdo drug. To dosežemo z uporabo omenjenih orodij in s tem manipuliramo z gledalcem.
Glede tega, kako je nastal videoposnetek s Tiwarijem v glavni vlogi, Sagar Vishnoi, ki sodeluje s The Ideaz Factory, pojasnjuje: 'Uporabili smo algoritem 'lip-sync' deepfake in ga usposobili z govori Manoja Tiwarija za prevajanje zvočnih zvokov v osnovne oblike ust.' To je Tiwariju omogočilo, da je razširil svoj doseg na skupnost Haryanvi in dosegel bazo volivcev, česar drugače ne bi mogel doseči.
Čeprav globoke ponaredke niso običajne v političnem toku, se to ni zgodilo prvič. Video iz leta 2018 takratnega ameriškega predsednika Baracka Obame je vzbudil zaskrbljenost, kako bi lažni videoposnetki lahko paradirali kot resnični videoposnetki v politični sferi. Ni treba posebej poudarjati, da je to spodbudilo politične in tehnične analitike k razpravi o tem, kaj lahko tehnologija naredi za politiko države in o različnih načinih, kako lahko vpliva na volitve, ne da bi tega dejansko nameravala.
Preberi –Tehnologijo za zaznavanje čustev bi bilo treba prepovedati, pravi AI Now
ZDA so se hitro odzvale z ameriškim odborom za etiko predstavniškega doma, ki je člane obvestil, da bi se štelo za kršitev hišnih pravil, če bi kateri koli član objavil tak globoko ponarejen video. Po drugi strani je Kalifornija že sprejela zakon, ki prepoveduje deljenje ponaredkov politikov manj kot 60 dni po volitvah. Twitter, Facebook in Reddit so prav tako posodobili svoje politike za boj proti globokim ponaredkom na svojih platformah.
Deepfakes ima že precejšen sloves, da se uporablja v množici pornografskih videoposnetkov slavnih, lažnih novic, potegavščin in mnogih podobnih škodljivih videoposnetkov. Vendar pa je treba še videti, kako bodo globoki ponaredki prevzeli medijsko potrošnjo, kot jo poznamo, in kako se zakonodaja spopada z moralno sivimi področji, ki bodo zagotovo izhajale iz takih medijev.