ابهامات در تكنولوژي تشخيص چهره !
در حال حاضر ميليونها دوربين مداربسته نظارتي در فضاهاي عمومي در سرتاسر جهان وجود دارد؛ ابزاري كه در كمتر از دو دهه توانايي هاي منحصر به فردي به دولت ها و پليس براي نظارت بر رفتار شهروندان داده است. در پشت اين لنزها، دوربين هاي مداربسته به روشي تغيير مي كنند كه مردم اغلب به سختي از آنها آگاه هستند و دراين ميان حفظ حريم خصوصي شهروندان موضوعي است كه بايد بيشتر به آن پرداخته شود.
در حال حاضر تشخيص چهره داغ ترين موضوع صنعت دوربين هاي مداربسته و سيستم هاي نظارت تصويري به حساب مي آيد. چرا كه در تعدادي از شهرهاي جهان، در ايالات متحده آمريكا، چين، آلمان، سنگاپور و ديگر شهر هاي متروپل جهاني اين فناوري به شدت مورد استفاده قرار مي گيرد. پليس در اين كشورها استدلال مي كند كه استفاده از چنين سيستم هايي به آنها اين امكان را داده است كه اين فناوري را براي شناسايي تروريست هاي بالقوه و ساير مجرمان شناخته شده بكار گيرند. اما اين موضوع همراه با نگراني هاي مختلف نيز هست. گسترده ترين انتظار مردم عادي حفظ حريم خصوصي و ناشناس ماندن در مكان هاي عمومي است – كه عملا با چنين اقداماتي از سوي دولت ها با تعرض مستقيم روبرو مي شود. در حال حاضر ابهامات در تكنولوژي تشخيص چهره باعث شده است كه بازنگري هاي زيادي در نحوه استفاده از آن صورت گيرد.
نواقص عملكرد دوربين هاي تشخيص چهره
سوال مهم بعدي اين است كه اين سيستم هاي تشخيص چهره در حال حاضر تا چه اندازه به درستي كار مي كنند؟ تحقيقات نشان مي دهد كه ميزان موفقيت اين دوربين ها در شناسايي چهره ها حتي تا ميزان 2? هم پايين مي آيد. همچنين اين فناوري در شناسايي افراد مختلف و خصوصا زنان پوست تيره بسيار كم دقت است و در نتيجه استفاده از چنين فناوري با اين همه نواقص آشكار، امكان تشديد تنش ها بين اقليت هاي قومي و پليس را افزايش مي دهد. اين موضوع در كشورهايي مانند ايران و ديگر كشورهاي خاورميانه كه اقليت هاي قومي و مذهبي زيادي در آنها سكونت دارند بيش از ديگر كشورها مهم جلوه مي كند.
همچنين اين مسئله مي تواند با يك موضوع بحث برانگيز ديگر، يعني به نحوه استفاده پليس از پايگاه داده هاي بسيار بزرگ و متمركز از چهره هاي مردم عام دامن بزند. به طور معمول اين پايگاه داده هاي بزرگ شامل تصاويري از افراد بازداشت شده است كه ممكن است هرگز به جرمي محكوم نشده باشند و بعيد به نظر مي رسد كه كسي با جمع آوري اين داده ها رضايت داشته باشد. به همين دلايل استفاده از نرم افزار خودكار تشخيص چهره بسيار بحث برانگيز بوده و تا زماني كه اين فناوري به اطمينان بيشتري دست پيدا نكند، بايد در نحوه استفاده از آن تجديد نظر شود.
در همين حال و به دليل موضوعات و نگراني هايي كه مطرح شده، در شهر سانفرانسيسكو در ايالات متحده استفاده از تشخيص چهره در سيستم هاي عمومي براي مدتي كوتاه ممنوع شده است. انتظار مي رود ساير شهرهاي جهان نيز از اين روش پيروي كنند تا مقرارت مشخصي در نحوه استفاده از اين تكنولوژي به تصويب پارلمان ها و ديگر نهادهاي قانون گذار برسد. ما هنوز نمي دانيم كه اين تكنولوژي در ايران مورد استفاده گسترده قرار گرفته است يا نه ؟ سوال ديگر اين است كه آيا برنامه خاصي در ميان سياسيون براي آينده در دستور كار است يا خير؟ به هر ترتيب اين نگراني يك موضوع جهاني است. ابهامات در تكنولوژي تشخيص چهره موضوعي است كه در كشور ما نيز بايد از همين امروز به آن توجه ويژه شود.
اين تكنولوژي رضايت مندي شهروندان را كاهش مي دهد
در مورد چگونگي استفاده از فناوري تشخيص چهره در واقع اطلاعات دقيق و خاصي وجود ندارد. اين بدان معني است كه به عموم مردم فرصتي داده نمي شود كه با ضبط، تجزيه و تحليل و ذخيره تصاوير خود در پايگاه داده موافقت داشته باشند. به همين دليل با محروم كردن شهروندان از رضايت عمومي در زندگي، آنها را از انتخاب و كنترل استفاده از تصاوير خود محروم مي كنيم.
بيشتر بخوانيد: تي وي تي
دلايل نگراني از فناوري تشخيص چهره
1. اشتباهات گسترده در محاسبات
مطالعات متعدد نشان داده است كه الگوريتم هاي آموزش داده شده بر روي مجموعه داده هاي اين فناوري با اشتباهات گسترده روبرو است و در نتيجه افراد رنگين پوست، به ويژه زنان رنگين پوست را اشتباه شناسايي مي كند. چنين الگوريتمي به ويژه اگر منجر به دستگيري هاي غيرقانوني شود، يا اگر سازمان هاي دولتي و شركت هاي خصوصي را به تبعيض عليه زنان و مردم از نژاد اقليت سوق دهد، به شدت نگران كننده خواهد بود.
2. افزايش سوبرداشت هاي مقرضانه
افرادي كه از نرم افزار تشخيص چهره استفاده مي كنند به اشتباه اعتقاد دارند كه اين فناوري بدون خطا است و اين موضوع مي تواند منجر به تصميمات نادرست در سيستم ها و سازمان هاي نظارتي شود. كاملا واضح است كه نتايج توليد شده توسط ماشين ها و فناوري هاي با چنين نواقصي نبايد نحوه رفتار آژانس هاي دولتي يا شركت هاي خصوصي با افراد را تعيين كند. بر اساس يك اصل كاملا منطقي اپراتورهاي آموزش ديده انساني بايد كنترل معني داري بر اين تكنولوژي داشته باشند و براساس قانون تصميم بگيرند.
3. سو استفاده توسط گروه هاي مخفي دولتي
پايگاه هاي داده اي كه حاوي تصاوير چهره ما هستند بايد زنگ هشدار را به صدا درآورند. اين موضوع حاكي از آن است كه شركت هاي خصوصي و آژانس هاي اجراي قانون تصاوير ما را براي ساختن ليست هاي مظنونين احتمالي بدون اطلاع و رضايت ما مي توانند اين اطالعات را به اشتراك بگذارند. اين تهديدي جدي براي حقوق فردي و آزادي هاي مدني ما است. امنيت اين پايگاه هاي داده و آسيب پذيري آنها در برابر عملكرد هكرها نيز باعث نگراني مضاعف خواهد شد. نگراني از فناوري تشخيص چهره در چنين موضوعاتي بيشتر شبيه فيلم ها هيجاني و هاليوودي مي شود اما بايد اين اخطار را به شما بدهيم كه در واقعيت اين كار در حال انجام است و نظارت شديدي در آينده بر رفتار شما اعمال خواهد شد.
بيشتر بخوانيد: هايك ويژن نصب دوربين مدار بسته
4. سو استفاده از تكنولوژي تشخيص چهره عليه اقشار ضعيف
براي نظارت بر جرايم احتمالي كه در سطح شهرها رخ مي دهد مي توان از فناوري تشخيص چهره استفاده كرد. اما همچنين اين فناوري مي تواند به صورت انتخابي و با نيت هاي ديگر نيز به كار گرفته شود. به عنوان مثال براي شناسايي مهاجران و پناهندگان و يا حتي براي سركوب كردن جناح هاي سياسي ديگر. همچنين دولت هايي كه به نقض آشكارحقوق اقليت ها در كشورشان متهم هستند مي توانند از اين فناوري براي سركوب بيشتر اين اقليت ها استفاده كنند.
بحث شديداً مورد نياز
با نگراني هاي فراوان در مورد فناوري تشخيص چهره ، ما به شدت به گفتگوي برجسته تري در مورد تأثير اين فناوري بر حقوق و آزادي هاي مدني نياز داريم. بدون تنظيم صحيح اين سيستم ها، ما مي توانيم دولت هاي پليسي را در كشورهاي مختلف دنيا ايجاد كنيم كه در نهايت به از دست رفتن آزادي هاي اجتماعي و تشكيل دولت هاي سركوب گر منتهي مي شود. فاشيسم با اين تكنولوژي يك قدم به جامعه جهاني نزديك تر مي شود.