డీప్ఫేక్ ఇమేజ్ యొక్క టెల్-టేల్ సంకేతాలను గుర్తించడం చాలా సులభం, కానీ ఉత్పాదక AI ఇప్పుడు మనం చూసే మరియు విన్న ప్రతిదాని గురించి ప్రశ్నించేలా చేస్తుంది. విడుదల చేయబడిన ప్రతి కొత్త AI మోడల్తో, నకిలీ ఇమేజ్కి సంబంధించిన సంకేతాలు తగ్గిపోతున్నాయి మరియు గందరగోళాన్ని పెంచడానికి, మీరు ఇప్పుడు డీప్ఫేక్ వీడియోలను, మీ ప్రియమైన వారి వాయిస్ క్లోన్లను సృష్టించవచ్చు మరియు కేవలం సెకన్లలో నకిలీ కథనాలను రూపొందించవచ్చు.
రోజు యొక్క వీడియోను తయారు చేయండి కంటెంట్తో కొనసాగడానికి స్క్రోల్ చేయండి
AI డీప్ఫేక్ల ద్వారా మోసపోకుండా ఉండటానికి, అవి ఎలాంటి ప్రమాదాలను కలిగిస్తాయో తెలుసుకోవడం విలువైనదే.
డీప్ఫేక్స్ యొక్క పరిణామం
డీప్ఫేక్ అనేది ఒక వ్యక్తి నిజ జీవితంలో ఎప్పుడూ జరగని పనిని చేస్తున్నట్లు చూపిస్తుంది. ఇది పూర్తిగా నకిలీ. డీప్ఫేక్లు ఇంటర్నెట్లో మీమ్గా లేదా జోక్గా షేర్ చేయబడినప్పుడు మనం నవ్వుతాము, కానీ చాలా తక్కువ మంది మాత్రమే మనల్ని తప్పుదారి పట్టించడానికి ఉపయోగించినప్పుడు వాటిని ఫన్నీగా భావిస్తారు.
గతంలో ఫోటోషాప్ వంటి ఇమేజ్ ఎడిటింగ్ సాఫ్ట్వేర్లో ఇప్పటికే ఉన్న ఫోటో తీసి దానిని మార్చడం ద్వారా డీప్ఫేక్లు సృష్టించబడ్డాయి. కానీ AI డీప్ఫేక్ని వేరుగా ఉంచేది ఏమిటంటే, డీప్ లెర్నింగ్ అల్గారిథమ్లను ఉపయోగించి ఇది మొదటి నుండి ఉత్పత్తి చేయబడుతుంది.
ది మెరియం-వెబ్స్టర్ నిఘంటువు డీప్ఫేక్ని ఇలా నిర్వచిస్తుంది:
ఎవరైనా వాస్తవంగా చేయని లేదా చెప్పని పనిని చేస్తున్నట్లు లేదా చెబుతున్నట్లు తప్పుగా సూచించడానికి నమ్మదగిన విధంగా మార్చబడిన మరియు మార్చబడిన చిత్రం లేదా రికార్డింగ్.
కానీ AI సాంకేతికత అభివృద్ధితో, ఈ నిర్వచనం పాతదిగా కనిపించడం ప్రారంభించింది. AI సాధనాల వాడకంతో, డీప్ఫేక్లలో ఇప్పుడు చిత్రాలు, వచనం, వీడియోలు మరియు వాయిస్ క్లోనింగ్ ఉన్నాయి. కొన్నిసార్లు, AI జనరేషన్ యొక్క నాలుగు మోడ్లు ఒకేసారి ఉపయోగించబడతాయి.
ఇది చాలా త్వరగా మరియు ఉపయోగించడానికి చౌకగా ఉండే ఆటోమేటెడ్ ప్రాసెస్ అయినందున, ఇది ఫోటోలు, వీడియోలు లేదా ఆడియోలను ఎలా ఎడిట్ చేయాలనే దాని గురించి ఒక్క విషయం కూడా తెలుసుకోవాల్సిన అవసరం లేకుండా మనం ఇంతకు ముందెన్నడూ చూడని స్థాయిలో డీప్ఫేక్లను తొలగించడానికి సరైన సాధనం. .
ఐపాడ్ నుండి ఐట్యూన్స్కు ఎలా బదిలీ చేయాలి
AI డీప్ఫేక్స్ యొక్క పెద్ద ప్రమాదాలు
ఒక హోస్ట్ AI వీడియో జనరేటర్లు పుష్కలంగా ఇప్పటికే ఉనికిలో ఉన్నాయి AI వాయిస్ జనరేటర్లు . ఒక త్రో GPT-4 వంటి పెద్ద భాషా నమూనా మరియు ఆధునిక చరిత్రలో మేము ఇప్పటివరకు చూసిన అత్యంత నమ్మదగిన డీప్ఫేక్లను రూపొందించడానికి మీకు ఒక రెసిపీ ఉంది.
వివిధ రకాల AI డీప్ఫేక్ల గురించి తెలుసుకోవడం మరియు మిమ్మల్ని మోసగించడానికి అవి ఎలా ఉపయోగించబడతాయి, తప్పుదారి పట్టకుండా ఉండటానికి ఒక మార్గం. AI డీప్ఫేక్ టెక్నాలజీ నిజమైన ముప్పును ఎలా కలిగిస్తుందో ఇక్కడ కొన్ని తీవ్రమైన ఉదాహరణలు ఉన్నాయి.
1. AI గుర్తింపు దొంగతనం
మీరు వాటిని చూసి ఉండవచ్చు. ప్రపంచవ్యాప్తంగా వ్యాపించిన మొట్టమొదటి నిజమైన వైరల్ AI డీప్ఫేక్లలో డొనాల్డ్ ట్రంప్ అరెస్టు చేయబడిన చిత్రం మరియు తెల్లటి పఫర్ జాకెట్లో ఉన్న పోప్ ఫ్రాన్సిస్లో ఒకరు.
రోమ్లో చలి రోజున ఒక ప్రసిద్ధ మతపరమైన వ్యక్తి ఏమి ధరించవచ్చో ఒక అమాయకపు పునఃకల్పన వలె కనిపిస్తుంది; ఇతర చిత్రం, చట్టంతో తీవ్రమైన పరిస్థితిలో ఉన్న రాజకీయ వ్యక్తిని చూపుతుంది, వాస్తవమైనదిగా తీసుకుంటే చాలా ఎక్కువ పరిణామాలు ఉంటాయి.
ఇప్పటివరకు, AI డీప్ఫేక్లను రూపొందించేటప్పుడు ప్రజలు ప్రధానంగా ప్రముఖులు, రాజకీయ ప్రముఖులు మరియు ఇతర ప్రసిద్ధ వ్యక్తులను లక్ష్యంగా చేసుకున్నారు. పాక్షికంగా, ప్రసిద్ధ వ్యక్తులు ఇంటర్నెట్లో వారి ఫోటోలను పుష్కలంగా కలిగి ఉన్నారు, ఇది మోడల్కు మొదటి స్థానంలో శిక్షణ ఇవ్వడంలో సహాయపడింది.
మీరు విసుగు చెందినప్పుడు వెబ్సైట్లు
మిడ్జర్నీ వంటి AI ఇమేజ్ జనరేటర్ విషయంలో—ట్రంప్ మరియు పోప్ల డీప్ఫేక్ రెండింటిలోనూ ఉపయోగించబడుతుంది—ఒక వినియోగదారు వారు చూడాలనుకుంటున్న వాటిని వివరించే వచనాన్ని ఇన్పుట్ చేయాలి. ఛాయాచిత్రం లేదా ఫోటోరియలిజం వంటి కళ శైలిని పేర్కొనడానికి కీవర్డ్లను ఉపయోగించవచ్చు మరియు రిజల్యూషన్ను పెంచడం ద్వారా ఫలితాలను చక్కగా ట్యూన్ చేయవచ్చు.
మీరు కూడా సులభంగా చేయవచ్చు మిడ్జర్నీని ఉపయోగించడం నేర్చుకోండి మరియు దీనిని మీరే పరీక్షించుకోండి, కానీ స్పష్టమైన నైతిక మరియు చట్టపరమైన కారణాల వల్ల, మీరు ఈ చిత్రాలను పబ్లిక్గా పోస్ట్ చేయకూడదు.
దురదృష్టవశాత్తూ, మీరు AI డీప్ఫేక్ల నుండి సురక్షితంగా ఉన్నారని ఒక సగటు, ప్రసిద్ధి చెందని వ్యక్తిగా హామీ ఇవ్వదు.
AI ఇమేజ్ జనరేటర్లు అందించే కీలక ఫీచర్తో సమస్య ఉంది: మీ స్వంత చిత్రాన్ని అప్లోడ్ చేయగల సామర్థ్యం మరియు AIతో దానిని మార్చడం. మరియు వంటి సాధనం DALL-E 2లో అవుట్పెయింటింగ్ టెక్స్ట్ ప్రాంప్ట్ను ఇన్పుట్ చేయడం ద్వారా మరియు మీరు ఇంకా ఏమి రూపొందించాలనుకుంటున్నారో వివరించడం ద్వారా ఇప్పటికే ఉన్న చిత్రాన్ని దాని సరిహద్దులకు మించి విస్తరించవచ్చు.
మీ ఫోటోలతో వేరొకరు ఇలా చేస్తే, తెల్లటి జాకెట్లో ఉన్న పోప్ డీప్ఫేక్ కంటే ప్రమాదాలు చాలా ఎక్కువగా ఉంటాయి-వారు మీలా నటిస్తూ ఎక్కడైనా ఉపయోగించవచ్చు. చాలా మంది వ్యక్తులు సాధారణంగా మంచి ఉద్దేశ్యంతో AIని ఉపయోగిస్తున్నప్పటికీ, హాని కలిగించడానికి, ప్రత్యేకించి గుర్తింపు చోరీకి సంబంధించిన సందర్భాల్లో ప్రజలు దానిని ఉపయోగించకుండా చాలా తక్కువ పరిమితులు ఉన్నాయి.
2. డీప్ఫేక్ వాయిస్ క్లోన్ స్కామ్లు
AI సహాయంతో, డీప్ఫేక్లు మనలో చాలా మంది సిద్ధంగా లేని రేఖను దాటాయి: నకిలీ వాయిస్ క్లోన్లు. మీరు ఒకసారి పోస్ట్ చేసిన TikTok వీడియో నుండి లేదా మీరు కనిపించే YouTube వీడియో నుండి కేవలం తక్కువ మొత్తంలో అసలైన ఆడియోతో - AI మోడల్ మీ ఒకే ఒక్క వాయిస్ని పునరావృతం చేయగలదు.
కుటుంబ సభ్యుడు, స్నేహితుడు లేదా సహోద్యోగి లాగా ఫోన్ కాల్ని స్వీకరించడం ఊహించడం అసాధారణమైనది మరియు భయంకరమైనది. డీప్ఫేక్ వాయిస్ క్లోన్లు చాలా తీవ్రమైన ఆందోళన కలిగిస్తాయి ఫెడరల్ ట్రేడ్ కమీషన్ (FTC) దాని గురించి హెచ్చరిక జారీ చేసింది.
వాయిస్ని నమ్మవద్దు. మిమ్మల్ని సంప్రదించినట్లు భావిస్తున్న వ్యక్తికి కాల్ చేసి, కథనాన్ని ధృవీకరించండి. వారిది అని మీకు తెలిసిన ఫోన్ నంబర్ని ఉపయోగించండి. మీరు మీ ప్రియమైన వారిని చేరుకోలేకపోతే, మరొక కుటుంబ సభ్యుడు లేదా వారి స్నేహితుల ద్వారా వారితో సన్నిహితంగా ఉండటానికి ప్రయత్నించండి.
వాషింగ్టన్ పోస్ట్ నివేదించింది 70 ఏళ్ల వయస్సులో ఉన్న ఒక జంట వారి మనవడిలా అనిపించే వారి నుండి ఫోన్ కాల్ అందుకున్న సందర్భం. అతను జైలులో ఉన్నాడు మరియు బెయిల్ కోసం అత్యవసరంగా డబ్బు అవసరం. వారు ఎవరితో మాట్లాడుతున్నారో అనుమానించటానికి వేరే కారణం లేకపోవడంతో వారు ముందుకు వెళ్లి మోసగాడికి డబ్బు ఇచ్చారు.
ఇమెయిల్తో అనుబంధించబడిన అన్ని ఖాతాలను ఎలా చూడాలి
ప్రమాదంలో ఉన్నది పాత తరం మాత్రమే కాదు, గార్డియన్ నివేదించింది బ్యాంక్ డైరెక్టర్ అని వారు నమ్ముతున్న వారి నుండి 'డీప్-ఫేక్ కాల్స్' వరుస తర్వాత మిలియన్ డాలర్ల లావాదేవీని ఆమోదించిన బ్యాంక్ మేనేజర్ యొక్క మరొక ఉదాహరణ.
3. భారీగా ఉత్పత్తి చేయబడిన నకిలీ వార్తలు
పెద్ద భాషా నమూనాలు, వంటివి ChatGPT మానవుడిలా అనిపించే వచనాన్ని ఉత్పత్తి చేయడంలో చాలా చాలా మంచివి మరియు వ్యత్యాసాన్ని గుర్తించడానికి మాకు ప్రస్తుతం సమర్థవంతమైన సాధనాలు లేవు. తప్పు చేతుల్లో, నకిలీ వార్తలు మరియు కుట్ర సిద్ధాంతాలు ఉత్పత్తి చేయడానికి చౌకగా ఉంటాయి మరియు తొలగించడానికి ఎక్కువ సమయం పడుతుంది.
తప్పుడు సమాచారాన్ని వ్యాప్తి చేయడం కొత్తేమీ కాదు, పరిశోధనా పత్రం arXivలో ప్రచురించబడింది AI సాధనాలతో అవుట్పుట్ను ఎంత సులభతరం చేయడంలో సమస్య ఉందని జనవరి 2023లో వివరించింది. వారు దీనిని 'AI- రూపొందించిన ప్రభావ ప్రచారాలు'గా సూచిస్తారు, ఉదాహరణకు, రాజకీయ నాయకులు తమ రాజకీయ ప్రచారాలను అవుట్సోర్స్ చేయడానికి ఉపయోగించవచ్చని వారు చెప్పారు.
ఒకటి కంటే ఎక్కువ AI-ఉత్పత్తి సోర్స్లను కలపడం వలన అధిక-స్థాయి డీప్ఫేక్ను సృష్టిస్తుంది. ఉదాహరణగా, డొనాల్డ్ ట్రంప్ను అరెస్టు చేసినట్లు నకిలీ ఇమేజ్తో పాటుగా AI మోడల్ బాగా వ్రాసిన మరియు నమ్మదగిన వార్తా కథనాన్ని రూపొందించగలదు. ఇది చిత్రం స్వంతంగా భాగస్వామ్యం చేయబడిన దాని కంటే ఎక్కువ చట్టబద్ధతను ఇస్తుంది.
నకిలీ వార్తలు చిత్రాలకు మరియు వ్రాయడానికి మాత్రమే పరిమితం కాదు, AI వీడియో జనరేషన్లో అభివృద్ధి అంటే మనం మరింత డీప్ఫేక్ వీడియోలను క్రాప్ చేస్తున్నామని అర్థం. రాబర్ట్ డౌనీ జూనియర్లో ఒకరు పోస్ట్ చేసిన ఎలోన్ మస్క్ యొక్క వీడియోలో ఒకటి ఇక్కడ ఉంది YouTube ఛానెల్ Deepfakery.
డీప్ఫేక్ని సృష్టించడం అనేది యాప్ను డౌన్లోడ్ చేసినంత సులభం. మీరు వంటి యాప్ని ఉపయోగించవచ్చు స్టిల్ చిత్రాలను యానిమేటెడ్ అవతార్లుగా మార్చడానికి TokkingHeads , ఇది వ్యక్తి మాట్లాడుతున్నట్లు అనిపించేలా మీ స్వంత చిత్రం మరియు ఆడియోను అప్లోడ్ చేయడానికి మిమ్మల్ని అనుమతిస్తుంది.
చాలా వరకు, ఇది వినోదభరితంగా మరియు సరదాగా ఉంటుంది, కానీ ఇబ్బందికి అవకాశం కూడా ఉంది. ఎవరైనా మాట్లాడని పదాలను ఆ వ్యక్తి పలికినట్లు అనిపించేలా ఎవరి చిత్రాన్ని ఉపయోగించడం ఎంత సులభమో ఇది మనకు చూపుతుంది.
AI డీప్ఫేక్ ద్వారా మోసపోకండి
డీప్ఫేక్లను చాలా తక్కువ ఖర్చుతో మరియు తక్కువ నైపుణ్యం లేదా కంప్యూటింగ్ శక్తితో వేగంగా అమలు చేయవచ్చు. వారు రూపొందించిన చిత్రం, వాయిస్ క్లోన్ లేదా AI- రూపొందించిన చిత్రాలు, ఆడియో మరియు వచనాల కలయిక యొక్క ఆకారాన్ని తీసుకోవచ్చు.
డీప్ఫేక్ను రూపొందించడం చాలా కష్టం మరియు శ్రమతో కూడుకున్నది, కానీ ఇప్పుడు, అక్కడ పుష్కలంగా AI యాప్లు ఉండటంతో, డీప్ఫేక్లను రూపొందించడానికి ఉపయోగించే సాధనాలను ఎవరైనా యాక్సెస్ చేయవచ్చు. AI డీప్ఫేక్ టెక్నాలజీ మరింత అభివృద్ధి చెందుతున్నందున, అది కలిగించే ప్రమాదాలను నిశితంగా గమనించడం విలువైనదే.