Home » Here Are 2 Tools to Prevent Facial Recognition AI From Using Your Selfie
Worried About Privacy for Your Selfies? These Tools Can Help Spoof Facial Recognition AI

Here Are 2 Tools to Prevent Facial Recognition AI From Using Your Selfie

by Sneha Shukla

कभी आपने सोचा है कि आपके द्वारा सोशल मीडिया साइट पर अपलोड की गई सेल्फी का क्या होता है? कार्यकर्ताओं और शोधकर्ताओं ने डेटा गोपनीयता के बारे में लंबे समय तक चेतावनी दी है और कहा है कि इंटरनेट पर अपलोड की गई तस्वीरों का उपयोग कृत्रिम बुद्धिमत्ता (एआई) संचालित डिजिटल मान्यता उपकरण को प्रशिक्षित करने के लिए किया जा सकता है। ये एआई-सक्षम उपकरण (जैसे क्लियरव्यू, एडब्ल्यूएस रिकॉग्निशन, माइक्रोसॉफ्ट एज़्योर, और फेस ++) का उपयोग सरकार या अन्य संस्थानों द्वारा लोगों को ट्रैक करने और यहां तक ​​कि विषय की धार्मिक या राजनीतिक प्राथमिकताओं जैसे निष्कर्ष निकालने के लिए किया जा सकता है। शोधकर्ताओं ने इन AI टूल को प्रतिकूल तरीकों से पहचानने या यहां तक ​​कि एक सेल्फी का पता लगाने, या इनपुट डेटा को बदलने का एक तरीका, जो गलतियों को बनाने के लिए एक गहरी-सीखने वाले मॉडल का कारण बनता है, को पहचानने में सक्षम बनाने के लिए आया है।

इनमें से दो तरीके पिछले सप्ताह प्रस्तुत किए गए थे सीखने के प्रतिनिधियों का अंतर्राष्ट्रीय सम्मेलन (ICLR)एक प्रमुख AI सम्मेलन जो वस्तुतः आयोजित किया गया था। एक के अनुसार रिपोर्ट good MIT प्रौद्योगिकी की समीक्षा के द्वारा, चेहरे की पहचान करने वाले सॉफ़्टवेयर को धोखा देने के लिए इन नए उपकरणों में से अधिकांश एक ऐसी छवि में छोटे बदलाव करते हैं जो मानव आंखों को दिखाई नहीं देती हैं, लेकिन एक AI को भ्रमित कर सकती हैं, जिससे सॉफ्टवेयर व्यक्ति या वस्तु की स्पष्ट रूप से पहचान करने में गलती करने के लिए मजबूर हो जाता है। छवि में, या, यहां तक ​​कि छवि को साकार करने से रोकना एक सेल्फी है।

शिकागो विश्वविद्यालय से एमिली वेंगर ने अपने सहयोगियों के साथ फॉक्स नामक इन ‘इमेज क्लोकिंग’ उपकरणों में से एक विकसित किया है। अन्य, जिसे लोके कहा जाता है, का विकास वेलेरिया चेरेपानोवा और उनके सहयोगियों ने मैरीलैंड विश्वविद्यालय में किया है।

फॉक्स उन छवियों को पिक्सेल-स्तर की गड़बड़ी जोड़ता है जो चेहरे की पहचान प्रणालियों को उन व्यक्तियों की पहचान करने से रोकते हैं लेकिन यह छवि को मनुष्यों के लिए अपरिवर्तित छोड़ देता है। 50 छवियों के एक छोटे डेटा सेट के साथ एक प्रयोग में, फॉक्स को वाणिज्यिक चेहरे की पहचान प्रणालियों के खिलाफ 100 प्रतिशत प्रभावी पाया गया। फॉक्स हो सकता है डाउनलोड की गई विंडोज और मैक के लिए, और इसकी विधि एक पेपर में विस्तृत थी शीर्षक ‘अनधिकृत डीप लर्निंग मॉडल के खिलाफ व्यक्तिगत गोपनीयता की रक्षा करना’।

हालाँकि, लेखक ध्यान दें कि Fawkes मौजूदा सिस्टम को गुमराह नहीं कर सकते हैं जो पहले से ही आपके असुरक्षित चित्रों पर प्रशिक्षित हैं। लोकेय, जो कि वेंगर की प्रणाली को विस्तार से छवियों को एक हद तक बदलकर विस्तारित करता है, ताकि वे कमर्शियल एआई मॉडल को मूर्ख बना सकें, जिससे व्यक्ति को छवि में पहचानने से रोका जा सके। लोके, एक में विस्तृत कागज़ ‘लेवरेजिंग एडवरसरी अटैक्स टू प्रोटेक्ट सोशल मीडिया यूजर्स फ्रॉम फेशियल रिकॉग्निशन’ उपलब्ध ऑनलाइन उपयोग के लिए।

फिर भी एक अन्य विधि, विस्तृत ऑस्ट्रेलिया के डीकिन विश्वविद्यालय के डैनियल मा और अन्य शोधकर्ताओं द्वारा ‘अनलॉजेबल एग्जाम: मेकिंग पर्सनल डेटा अनसेफ्लोएबल’ शीर्षक वाले पेपर में इस तरह के ‘डेटा पॉइजनिंग’ को एक कदम और आगे बढ़ाया गया है, जो एक एआई मॉडल को प्रशिक्षण के दौरान इसे छोड़ने के लिए मजबूर करने वाली छवियों में बदलाव पेश करता है। , मूल्यांकन के बाद प्रशिक्षण को रोकना।

वेंजर ने नोट किया कि फॉक्स ने संक्षेप में Microsoft Azure को धोखा देने में असमर्थ था, कहा, “यह अचानक किसी भी तरह से क्लोज्ड छवियों के लिए मजबूत हो गया जो हमने उत्पन्न किया था … हमें नहीं पता कि क्या हुआ।” उसने कहा कि यह अब एआई के खिलाफ एक दौड़ थी, फॉक्स के साथ बाद में फिर से एज़्योर को बिगाड़ने में सक्षम होने के लिए अपडेट किया गया। “यह एक और बिल्ली और चूहे की दौड़ है,” उसने कहा।

रिपोर्ट में वेंगर के हवाले से यह भी कहा गया है कि इस तरह के एआई टूल्स के खिलाफ नियमन गोपनीयता बनाए रखने में मदद करेगा, कानूनी रूप से स्वीकार्य और लोग क्या चाहते हैं, के बीच हमेशा एक “डिस्कनेक्ट” होगा, और फॉक्स की तरह स्पूफिंग तरीके “अंतर” भरने में मदद कर सकते हैं। वह कहती हैं कि इस उपकरण को विकसित करने की उनकी प्रेरणा सरल थी: लोगों को “कुछ शक्ति” देने के लिए जो उनके पास पहले से नहीं थी।

HomepageClick Hear

Related Posts

Leave a Comment