Experts के अनुसार, वित्तीय धोखाधड़ी और दुष्प्रचार अभियानों के लिए AI-generated सामग्री को “हथियार” बनाया जा रहा है।
Artificial Intelligence के बढ़ते प्रसार का हमारी गोपनीयता पर गंभीर प्रभाव पड़ता है। व्यक्तियों के लिए AI-generated चेहरे और वास्तविक चेहरे के बीच अंतर बताना मुश्किल होता जा रहा है। हैरानी की बात यह है कि researchers का दावा है कि उनके शोध से पता चला है कि झूठी तस्वीरें वास्तविक तस्वीरों की तुलना में अधिक विश्वसनीय होती हैं। हमारे जीवन को लेने से “गहरी नकली” से बचने के लिए अब researchers द्वारा अधिक सुरक्षा की वकालत की जा रही है। Researchers ने संभावित खतरों के बारे में चिंता जताई है, यह दावा करते हुए कि धोखाधड़ी, प्रचार और “revenge porn” के लिए AI-generated text, audio, imageऔर video का पहले ही शोषण किया जा चुका है।
Highlights
- प्रतिभागियों को AI-generated और वास्तविक जीवन के चेहरों के बीच अंतर बताने के लिए कहा गया था।
- उन्होंने चेहरों से विश्वास के स्तर के बारे में भी पूछताछ की।
- परिणामों से पता चला कि AI-generated चेहरे बेहद Photo-Realistic थे।
Researchers ने प्रतिभागियों से अत्याधुनिक StyleGAN2 से बने नकली और असली चेहरों के बीच अंतर बताने को कहा। उन्होंने प्रतिभागियों में विश्वास के स्तर के बारे में भी पूछताछ की। परिणाम अप्रत्याशित थे। उन्होंने पाया कि Synthetically रूप से बनाए गए चेहरे बेहद Photo-Realistic थे और वास्तविक लोगों से अलग बताना मुश्किल था। उन्हें प्रतिभागियों द्वारा अधिक भरोसेमंद भी माना जाता था।
प्रारंभिक प्रयोग के दौरान प्रतिभागियों की सटीकता दर केवल 48 प्रतिशत थी। पहले दौर से प्रशिक्षण के बावजूद, दूसरे प्रयोग में दर में केवल थोड़ा सुधार हुआ और 59 प्रतिशत हो गया। विश्वसनीयता निर्धारित करने के लिए तीसरे दौर का परीक्षण किया गया। उन्होंने पाया कि सिंथेटिक चेहरों की औसत रेटिंग समान फ़ोटो के सेट का उपयोग करने वाले वास्तविक चेहरों की औसत रेटिंग से 7.7% अधिक थी।
Researchers ने प्रोसीडिंग्स ऑफ द नेशनल एकेडमी ऑफ साइंसेज में लिखा है किAI-synthesised text, audio, image, और video को गैर-सहमति वाली अंतरंग इमेजरी, वित्तीय धोखाधड़ी और दुष्प्रचार संचालन (PNAS) के लिए “हथियार” बनाया जा रहा है। उन्होंने कहा, ” AI-generated चेहरों के photorealism के हमारे आकलन से पता चलता है कि सिंथेसिस इंजन ने अलौकिक घाटी को पार कर लिया है और वे ऐसे दिखने में सक्षम हैं जो indistinguishable हैं – और वास्तविक लोगों की तुलना में अधिक भरोसेमंद हैं,” उन्होंने कहा।
अध्ययन के लेखक, लैंकेस्टर विश्वविद्यालय के सोफी नाइटिंगेल और कैलिफोर्निया विश्वविद्यालय के हनी फरीद ने भी इस संभावना के बारे में चेतावनी दी कि लोग AI-generated images को पहचानने में असमर्थ होंगे। “शायद सबसे हानिकारक प्रभाव यह है कि, एक डिजिटल दुनिया में जहां एक छवि या वीडियो को गलत साबित किया जा सकता है, किसी भी अप्रिय या अवांछित रिकॉर्डिंग की वैधता पर सवाल उठाया जा सकता है।”
Researcher sद्वारा डीप फेक के खिलाफ कुछ दिशानिर्देश प्रस्तावित किए गए हैं। Image-और Video-Synthesis नेटवर्क में मजबूत वॉटरमार्क शामिल करना इन सावधानियों में से एक है।