A szomszéd olyan pornót néz, amiben az arcom köszön vissza, pedig sosem csinálnék ilyet
Noelle Martin mindössze 17 éves volt, mikor a Google képkeresőjének segítségével rákeresett egy szelfijére, és azt látta, hogy számtalan olyan képet dob ki az internet, amin az arcát valaki más meztelen testére szerkesztették. Olyan pornóképeket látott, ahol az ő arca néz vissza pornószínészők testéről, olyan helyzetekben, amilyenekbe ő nyilvánvalóan nem került, de a képek alapján nem biztos, hogy ezt bárki elhitte volna neki.
Ezeket láttad már?
2023 áprilisában az Atrioc nevű Youtuber (Brandon Ewing) a szokásos élő Twitch közvetítését tartotta, mikor véletlenül megosztotta a követőivel a böngészőablakának tartalmát. Néhány pillanat elég volt ahhoz, hogy beazonosítsák, hogy a férfi női játékosok, más influenszerek és Ewing barátait ábrázoló hamisítványnak tűnő pornóvideók vannak megnyitva, az erről készült képernyőfotók pedig ki is kerültek az internetre.
Nem a hírességek vannak veszélyben
A deepfake deep learning és a fake, azaz hamis szavak összevonásából ered. A gépi tanulással megtámogatott algoritmus információkat, például egy képet vagy videót kap, és készít belőle valami hamisat. Persze nem ő találja ki, hogy mit, azt, amit parancsba kap, például egy hamis pornót. A közélet már évek óta kongatja emiatt a vészharangokat, hiszen valós időben kellene eldönteni adott esetben egy olyan videó valódiságát, mikor egy ország első embere bejelenti, hogy elindította a támadást egy másik ország ellen, vagy egy világmárka vezetője látszólag bevallja, hogy a termékeiket gyerekek készítik.
Ijesztő, ahogyan az is, hogy a deepfake felhasználásának a jelentős részét a pornó teszi ki, 90-95 százaléka úgy készül, hogy a feleknek fogalma sincs, hogy mire használják az arcmását, és az esetek 90 százalékában az odahamisított személy nő. Ha pedig azt hinnéd, hogy ez biztosan a hírességek problémája, el kell keserítenünk, ugyanis többségében teljesen átlagos hétköznapi nők esnek áldozatul. És bárki, akinek van arcképe, áldozattá válhat. A fentebb említett Noelle Martin például évekig harcolt azért, hogy ezek a felvételek eltűnjenek az internetről, amiről TED-előadást is tartott.
Bűncselekmény is meg nem is
A kiberbűnözés és a bosszúpornó egy teljesen új formája lehet a zsarolásnak, ami olyan megrendelésre készülő videóval történik, ami sohasem történt meg. Gondolj bele, milyen lenne, ha egy nap kapnál egy olyan zsaroló levelet, miszerint ha nem fizetsz, megkapja a barátod vagy a férjed, a munkahelyed vagy a családod azt a videót, ami leginkább egy pornóra hajaz, csak éppen látszólag te vagy benne a főszereplő.
Hiába, hogy te tudod, hogy ez sosem történt meg, másokban felmerülhet a kétség, hogy mi van, ha ez mégis valós, és ennek elkerüléséért sokan fizetnének is. Ez nyilvánvalóan bűncselekmény, de amikor valaki létrehoz rólad egy olyan szexfelvételt, amin bár látszólag te szerepelsz, de az egész nem történt meg, az már újabb kérdéseket vet fel, ahol kicsit át kell gondolni azt is, mit is jelent a fantáziálás fogalma.
Saját szórakoztatásra
Ha valaki nem azért teszi, hogy zsaroljon vagy megossza másokkal, hanem csak a saját felhasználásra, akkor mi is a helyzet? Nyilvánvalóan ha meglátnál az ismerősöd vagy a szomszédod, kollégád gépén egy ilyet, joggal lennél ingerült, de tulajdonképpen mennyiben is más ez, mintha elképzeli ugyanazt a jelenetet? Ha a bűncselekmény onnan indul, hogy valaki megosztja ezeket a felvételeket, akkor ha csak a saját gépén tárolja őket, az vajon bűncselekménynek minősül, vagy a szexuális fantáziák egészen addig vannak rendben, ameddig az ember fejében léteznek, és amint kikerül onnan, és testet ölt egy deepfake videó vagy kép mivoltában, az undorítóvá válik?
Újratervezés
Az erkölcsi következetességünk éppen ezért arra szorul, hogy átgondoljuk, hogyan is állunk ezekhez a kérdésekhez a jövőben. Lehetőségünk van arra, hogy elfogadjuk, hogy nem tudunk mit tenni, a deepfake szexvideók az életünk részévé válik, és amíg nem kerül nyilvánosságra vagy nem zsarolnak vele senkit, vagyis valóban csak saját használatra készülnek, addig szemet hunyunk felette, és hamarosan az, hogy sejted, hogy emberek fiktív pornók készítésére használják a fotódat, ugyanolyan státuszba kerül, mint hogy esetleg téged képzelnek el egy fantáziájukban.
De felmerülhet az is, hogy az egész szexuális fantáziálás témaköre megkérdőjeleződik. Nem olyan régi dolog az, hogy a gondolataink jelentős része nem bűnös gondolat. Azonban most is van olyan, ami az. Erőszakos cselekményekről fantáziálgatni, gyerekek bántalmazásának gondolata társadalmilag elfogadottan elítélendő. Ahogyan viszont egyre több lehetőséget kapunk arra, hogy a saját személyes adatainkat védjük és megőrizzük, eljöhet-e az a pont, hogy a mások gondolatában megjelenő, velünk kapcsolatos dolgok felett is hatalmat kérünk. De hol a határ?
Azt megtilthatom valakinek, hogy ne képzeljen el meztelenül, akkor azt is megtilthatom neki, hogy más dolgokat se gondoljon rólam, és például ne tartson lustának vagy sótlannak? Vagy érdemes azt a gondolatmenetet is lejátszani magunkban, hogy az, hogy a deepfake videók alanyai, akik nem adták beleegyezésüket a dologhoz, 90 százalékban nők, míg a szexuális fantáziák mindkét nemet érintik, az nem jelenti-e azt, hogy éppen a nők kizsákmányolásának egy technológia által támogatott szakasza zajlik éppen a szemünk előtt, amit most dönthetünk el, hogy normalizálunk, vagy jelezzük, hogy nagyon nem oké.
A technológia teljesen új világot nyit ki előttünk. Ismerd meg!
- Halott családtagjaiddal is beszélgethetsz a technológia segítségével
- Innen tudod, hogy valaki letiltott Facebook alkalmazásban
- Miért káros a spam hívás? Mert akár a bankkártya adataidat is megszerezheti így egy csaló