AI DEEPFAKE Predstavujú OBROVSKÉ NEBEZPEČENSTVO! Ako sa Voči Tomu CHRÁNIŤ?
⚠️ PROSÍM PODPOR MA❗️👍 SK9856000000001849026001 🙏 S cieľom Zlepšiť Kvalitu, Obsah a Design tohto WEBU 🙏 a
✅ https://www.krypto.sk/podpor-nas/ 👍 SK9856000000001849026001 🙏 ako DAR 🤩 ĎAKUJEM
S rastúcou prevalenciou AI poháňaných deepfake podvodov varujú bezpečnostné firmy, že metódy útokov sa môžu rozšíriť nad rámec videí a zvukových záznamov.
Softvérová spoločnosť Gen Digital uviedla 4. septembra, že zločinci využívajúci AI deepfake podvody na okrádanie držiteľov kryptomien zintenzívnili svoje operácie v druhom kvartáli roku 2024. Skupina podvodníkov nazvaná "CryptoCore" už pomocou AI deepfakes oklamala ľudí o viac ako 5 miliónov dolárov v kryptomenách.
Hoci táto suma sa zdá byť nízka v porovnaní s inými metódami útokov v krypto sfére, bezpečnostní profesionáli veria, že AI deepfake útoky môžu ďalej eskalovať a ohroziť bezpečnosť digitálnych aktív.
Rozšírenie AI deepfake podvodov
Bezpečnostná firma Web3, CertiK, verí, že AI deepfake podvody sa stanú sofistikovanejšími a môžu sa v budúcnosti rozšíriť aj nad rámec video a audio záznamov. Hovorca CertiKu vysvetlil, že tento vektor útoku by mohol byť použitý na oklamanie peňaženiek, ktoré používajú rozpoznávanie tváre, aby poskytli hackerom prístup:
"Predstavte si, že peňaženka závisí na rozpoznávaní tváre na zabezpečenie kritických informácií, musí posúdiť robustnosť svojho riešenia voči hrozbám poháňaným AI."
Je dôležité, aby členovia krypto komunity boli čoraz viac informovaní o tom, ako tento útok funguje.
Obrana proti AI deepfake útokom
Hoci môžu byť AI deepfake útoky veľkou hrozbou pre používateľov kryptomien, bezpečnostní profesionáli veria, že existujú spôsoby, ako sa môžu používatelia chrániť pred týmto typom hrozby. Podľa hovorcu CertiKu by vzdelávanie bolo dobrým začiatkom.
Inžinier CertiKu vysvetlil, že poznať hrozby a nástroje a služby dostupné na ich boj je dôležité. Okrem toho je dôležité byť opatrný voči nevyžiadaným žiadostiam o peniaze alebo osobné informácie a povolenie viacfaktorovej autentifikácie pre citlivé účty môže pridať ďalšiu vrstvu ochrany proti takýmto podvodom.
Medzitým Corrons z firmy Norton verí, že existujú "červené vlajky", ktoré by mohli používatelia spozorovať, aby sa vyhli AI deepfake podvodom. To zahŕňa neprírodzené pohyby očí, mimiku a telesné pohyby.
Okrem toho môže byť veľkým signálom aj nedostatok emócií. "Môžete tiež spozorovať morfing tváre alebo švy obrázkov, ak sa tvár osoby nezdá vyjadrovať emócie, ktoré by mali zodpovedať tomu, čo údajne hovorí," vysvetlil Corrons.
Tieto informácie by mali používateľom pomôcť rozlíšiť, či sa pozerajú na AI deepfake alebo nie.