Un nou trend pe Tiktok, deepfake – videoclipuri trucate generate de inteligența artificială- nu mai sunt doar un experiment tehnologic: au devenit ”arme” virale împotriva vedetelor! Un simplu clip fals poate ajunge în doar câteva ore la zeci de mii de oameni, iar impactul psihologic asupra publicului și asupra vedetelor este uriaș! Cătălin Măruță a făcut declarații, în exclusivitate pentru CANCAN.RO despre întreaga situație.
Cazul video-ului cu Andra, copiii ei și Jean de la Craiova este un exemplu elocvent. Clipul cu pricina a adunat 16.000 de aprecieri, peste 600 de comentarii, 1.000 de salvări și aproape 12.000 de distribuiri, răspândind idei false și teorii conspiraționiste despre familia Măruță. Reacțiile internauților sunt împărțite între cei care cred și cei care fac haz de situație, însă nimeni nu poate ignora efectul unei asemenea manipulări vizuale.
Reacțiile internauților sunt împărțite, însă mulți condamnă și sunt de părere că astfel de deepfake-uri ar trebui interzis cu desăvârșire! Exemple stau aceste mesaje:
Și nu este singurul deepfake făcut cu membrii familiei Măruță. Pe TikTok rulează un alt video cu David îmbrățișat cu Jean de la Craiova, menit să alimenteze aceeași teorie falsă.
Din nou, impactul asupra publicului este extrem de mare. Din cele 300 de mesaje lăsate acest video, multe sunt făcute la bășcălie.
Odată ce un clip fals ajunge pe platforme precum TikTok, granița dintre realitate și ficțiune se estompează. Unele persoane pot fi manipulate să creadă în scenarii imposibile, cum este cazul teoriei că fiul Andrei, David, seamănă cu Jean de la Craiova, în ciuda faptului că artistul nu are nicio legătură cu acesta.
Cătălin Măruță a declarat în exclusivitate pentru CANCAN.RO că trebuie tras un semnal de alarmă și vorbește despre soluții concrete: legi clare, răspundere financiară pentru cei care manipulează imagini și instituții capabile să oprească răspândirea clipurilor false înainte să producă pagube.
”Deepfake-urile nu mai sunt doar o joacă, devin un pericol real pentru orice om expus public, dar și pentru oameni obișnuiți. Cred că singura soluție serioasă ar fi legile care trebuie să-i facă pe cei care produc sau distribuie astfel de materiale responsabili și direct răspunzători, inclusiv financiar. Dacă folosești imagini false, modifici realitatea și afectezi viața cuiva, trebuie să plătești pentru asta.
În același timp, e nevoie de instituții și structuri tehnice care să poată identifica rapid autorii și să oprească răspândirea lor înainte să facă rău. Altfel, doar discutăm, dar fenomenul merge mai departe”, a explicat celebrul prezentator.
Dacă se menține acest trend, vedetele devin victime involuntare ale unui spectacol public nedorit, neputând controla răspândirea de informațiilor false. În același timp, astfel de videoclipuri cresc traficul și audiența platformelor, stimulând algoritmii să recomande și mai mult conținut fals. Ca într-un cerc vicios!
Dar Andra și Cătălin Măruță nu sunt singurii afectați. Pe listă se află și Delia, care a devenit victima unui deepfake pe un site pentru adulți. Artista a scris atunci, revoltată:
„Am descoperit că circula din telefon în telefon această mizerie. Se numește deepfake! Este un fake făcut în România din fericire, cu o aplicație de doi lei. Afară lucrurile stau îngrijorător de bine la acest capitol de tehnologie avansată. Imaginează-ți cum te simți să-ți vezi fața pusă într-un astfel de context. Sau mai rău fața mamei tale sau a copilului tău. Oricine poate fi victimă în scop de umilire, șantaj etc. 😡”
Și imaginile cu alte personalități publice au ajuns să fie folosite în astfel de videouri false.

Gigi Becali apare umăr la umăr cu superstarul Cristiano Ronaldo în timp ce spune că-l va pune în poartă la Steaua. Hagi lângă Mbappe, iar Bănel Nicoliță zâmbește în timp ce e strâns în brațe de Messi. Impactul pe Tiktok? 26.000 de aprecieri, 200 de mesaje, 3.100 de salvări și 15.500 de distribuiri!
N-a scăpat nici Pescobar, iar în cazul lui imaginația creatorilor de deepfake a depășit orice limită. Într-un clip care a făcut ravagii pe Tiktok, el apare pe o barcă, proclamând cu aplomb că monstrul din Loch Ness va fi noul preparat-vedetă din meniul Tavernei Racilor. Impactul: a strâns 55.000 de aprecieri, peste 270 de comentarii, 3.500 de salvări și nu mai puțin de 19.000 de distribuiri!
Clipurile și imaginile deepfake nu doar distorsionează realitatea, ci creează și confuzie. Publicul se împarte între cei care cred că e real ceea ce văd și cei care fac haz de imagini, dar vedetele devin victime involuntare, fără să poată controla rapid răspândirea acestor falsuri.
Acest fenomen este mai periculos decât pare: poate fi folosit pentru umilire publică, șantaj, denigrare sau propagare de teorii false. În lipsa unei legislații eficiente în online, astfel de situații se vor repeta, afectând nu doar vedetele, ci și oameni simpli care riscă să fie manipulați.
Deepfake este o tehnologie care folosește inteligența artificială pentru a crea imagini, videoclipuri sau înregistrări audio false, dar care par extrem de reale. Practic, AI-ul „lipește” chipul sau vocea unei persoane peste corpul și acțiunile altei persoane, în așa fel încât pare că acea persoană chiar a spus sau a făcut ceva deși în realitate nu s-a întâmplat niciodată.
Unele semne sunt evidente: mișcările feței par nenaturale, clipirea poate fi prea rară sau prea frecventă, iar zâmbetele sunt rigide și nu se potrivesc cu emoțiile din voce. De asemenea, gura poate să nu se sincronizeze perfect cu sunetele, pielea poate părea „prea perfectă” sau „ca de plastic”, iar conturul feței se mișcă anormal, cu margini blurate sau deformate.
Umbrele și lumina din videoclip pot fi, de asemenea, greșite, iar vocea poate suna robotic sau cu intonație tăiată. Comportamentele care nu seamănă cu personalitatea cunoscută a persoanei sunt, de asemenea, un indiciu că videoclipul este fals.
NU RATA: Cele 40 de meserii pe care Inteligența Artificială le înlocuiește vs. 40 de care nu se poate atinge
Cine deţine informaţii despre acest subiect este rugat să ne scrie la [email protected], să ne sune la 0741 CANCAN (226.226) sau să ne scrie direct pe WhatsApp.