A legújabb trükk, amit a kiberbűnözők alkalmaznak, mesterséges intelligencia által generált üzenetek. A csalók úgynevezett „chatbotokat” programoznak, amelyek képesek emberi stílusban kommunikálni. Ezek az automatizált üzenetek gyakran fiatalokat céloznak meg, akik kevésbé gyanakvóak, és könnyebben válaszolnak egy barátságosnak tűnő megkeresésre.
A tipikus példa: egy ismerős nevében érkező üzenet („Szia, segítenél nekem egy szavazatot leadni egy versenyen?”), majd a telefonszám elkérése után egy SMS-ben érkező kódot kérnek. Ha az áldozat megadja ezt a kódot, a csalók hozzáférést nyerhetnek az Instagram-fiókhoz – és onnantól kezdve minden képet, üzenetet és személyes adatot ellophatnak. Gyakran barátok vagy influencerek profilját klónozzák, így nehéz felismerni a csalást.
A deepfake veszélye
A technológia fejlődésével a csalók már nemcsak szöveges üzeneteket küldenek. 2024-ben egy kínai vállalkozó 622 000 dollárt veszített el egy olyan videóhívásban, ahol a beszélgető felek arcát valós időben cserélték le AI-jal. Hasonló esetben 2025-ben egy pénzügyi munkavállaló 25,6 millió dollárt utalt át egy deepfake videóhívás után, ahol a csalók a kollégái arcát és hangját klónozták.
AI-al generált tartalmak jellegzetes jelei
A deepfake tartalmak felismerése egyre nehezebb, ahogy a technológia fejlődik, de vannak olyan apró jelek, amelyek segíthetnek az ilyen manipulált videók vagy képek azonosításában:
- Szempillák mozgása: Figyeld meg, hogy a szempillák mozgása szinkronban van-e a szemhéjakkal. Az AI gyakran nem tudja tökéletesen reprodukálni ezt az apró részletet.
- Fényviszonyok: Ellenőrizd, hogy a fények következetesek-e a képen vagy videón. Az AI által generált tartalmaknál előfordulhatnak furcsa árnyékok vagy fényvisszaverődések, amelyek nem illeszkednek a környezethez.
- Háttér élessége: Az AI gyakran elmosódott hátteret generál, amely nem illik össze az előtérrel vagy a személyekkel.
Ezek az egyszerű ellenőrzések segíthetnek abban, hogy időben felismerd a manipulált tartalmakat, és elkerüld, hogy áldozattá válj.
Jogi láthatár: Miért büntethető a profilfeltörés?
A magyar jog szerint a profilfeltörés nem csupán erkölcstelen, hanem konkrétan bűncselekmény. A Büntető Törvénykönyv 423. §-a szerint, aki jogosulatlanul belép mások információs rendszerébe (pl. Instagram-fiókjába), akár 2 évig terjedő szabadságvesztéssel büntethető. Ha a feltörés során adatokat módosítanak vagy törölnek, a büntetés 3 évre nőhet.
A jogi megoldások mellett azonban fontos, hogy mi magunk is aktívan védekezzünk – hiszen sokszor megelőzhetjük a problémát.
Digitális önvédelmi kézikönyv: 3 lépés a biztonságért
a) Kétfaktoros hitelesítés: A digitális lakat
b) Fotóvédelmi Taktikák
- Vízjelek használata: Tegyél látható vízjelet a képeidre, hogy ne lehessen őket engedély nélkül átvenni.
- Profilkorlátozás: Állítsd be a fiókod privátra, így csak jóváhagyott követők láthatják a tartalmaidat.
- EXIF-adatok törlése: A képek mögé rejtett helymeghatározó adatokat távolítsd el szoftverekkel (pl. Adobe Lightroom).
c) Kódcsapda: Hogyan védd meg magad?
Ha valaki ismeretlenül kéri a telefonszámodat vagy egy SMS-ben kapott kódot, azonnal gyanakodj! A rendőrség tanácsai szerint:
- Ne válaszolj az üzenetre.
- Jelentsd a felhasználót az Instagramon.
- Változtasd meg a jelszavadat és ellenőrizd a bejelentkezések listáját.
Ha Már Késő: Mit Tehetsz?
Adatvédelmi Incidens Bejelentése: A Nemzeti Adatvédelmi és Információszabadság Hatóság (NAIH) honlapján lehetőség van online bejelentésre.
Polgári per indítása: Ha a lopott képek anyagi kárt okoztak (pl. üzleti profilodat használták csalásra), kártérítést követelhetsz polgári peres eljárás keretében.
Büntetőfeljelentés: A rendőrségen feljelentést lehet tenni információs rendszer megsértése vagy személyiségi jogok megsértése miatt.
Gyakorlati Segítségnyújtás
Ha képeidet AI-al generált tartalmakban használják fel, keresd fel a Content Authenticity Initiative (CAI) platformot, ahol ingyenesen jelentsd a visszaéléseket.
Forrás: Jogászvilág (https://jogaszvilag.hu/szakma/instacsalas-profilfeltores-es-deepfake-hogyan-vedd-meg-digitalis-identitasod/)