ابزار جدید مبتنی بر هوش مصنوعی ادعا دارد که قدرت تشخیص تصاویر کودکآزاری با دقت 99% را دارد. این ابزار که سیفر (Safar) نام دارد و توسط شرکت Thorn آفریده شده است، برای کمک به کشف و حذف چنین تصاویر و محتواهایی در کسبوکارهایی که سیستمهای فیلتر داخلی (مانند شبکههای اجتماعی) ندارند، کمک شایانی به شمار میآید. با عامر اندیش همراه باشید تا با این دستاورد جدید در زمینه هوش مصنوعی بیشتر آشنا شوید.
شناسایی کودکآزاری با کمک هوشمصنوعی
براساس گزارشهای بنیاد دیدهبان اینترنت در انگلستان، تصاویر مربوط به کودکآزاری در ایام حصرخانگی کوید-19 تا 50 درصد رشد داشته است. در 11 هفته آغازین حصرخانگی که شروع آن 23 مارچ 2020 بود، 44.809 تماس شهروندان مربوط به این موضوع ثبت و ضبط شده، درحالیکه نسبت به سال گذشته در همین ایام این میزان تماس 29.698 (تقریبا نصف) بوده است. بسیاری از این تصاویر مربوط به کودکانی بودهاند که بیشترین زمان خود را در فضای مجازی سپری میکردند و به زور وادار به منتشر کردن تصاویرشان در دنیای مجازی شدهاند.
اندی بارووس (Andy Burrows)، رئیس ایمنی کودکان در فضای آنلاین در NSPCC ، اخیراً به بی بی سی گفته است: “اگر شبکههای اجتماعی کار بهتری برای سرمایهگذاری در فناوری میکردند، مانند سرمایهگذاری در طرحی ایمنتر که قلب این بحران را نشانه گرفته باشد، آسیبها به مراتب به کمترین میزان خود میرسید.
Safer یکی از همین ابزارهایی است که برای شناسایی کودکآزاری با کمک هوشمصنوعی توسط شرکت Thron ابداع شده است. این ابزار هوشمند، به سرعت عکسها و محتواهای مربوط به کودکآزاری در شبکههای اجتماعی را تشخیص داده و در نتیجه باعث کاهش آسیبها تا حد چشمگیری میشود.
سامانه تشخیص Safer شامل موارد زیر است:
- مطابقت تصویر هش: Flagship سرویسی است که هشهای رمزنگاری و ادراکی را برای شناسایی هشهای کودکآزاری تولید کرده و آنان را با هشهای CSAM مقایسه میکند. در زمان انتشار، پایگاه داده شامل 5.9 مگا هش بود. این هشها در زیرساختهای کاربران برای حفظ حریم شخصی اتفاق میافتادند.
- طبقهبندی تصاویر CSAM: مدل طبقهبندی یادگیری ماشین که توسط شرکت Thorn توسعه یافته، با استفاده از پلتفرم Safer، شناسایی کودکآزاری با کمک هوشمصنوعی را ممکن ساخته و پیشبینی میکند که آیا فایلی جز دسته CSAM-ها قرار دارد یا خیر. به این مدل طبقهبندی کننده آموزش داده میشود که گروه دادههای صدها هزار تصاویر غیراخلاقی بزرگسالان، CSAM و دیگر تصاویر که میتواند در تشخیص تصاویر جدید مربوط به این موضوع و CSAM ناشناخته کمککننده باشد، بررسی نماید.
- سازگاری ویدیو هش: سرویسی که هشهای ادراکی و رمزنگاری شدهای برای تصاویر ویدیویی تولید میکند، نتیجه را با هشهای تصاویر کنونی که به CSAM مشکوکاند، مقایسه میکند. در زمان انتشار، گروهدادهها شامل 650k هش مشکوک به صحنههای CSAM بود.
- Saferlist برای شناسایی: این سرویس با استفاده از قدرت دانش عظیم خود، در شناسایی کودکآزاری با کمک هوشمصنوعی کمک بزرگی به شمار میآید. همچنین به مشتریان این پلتفرم این امکان داده شده تا گروه هشهایی که خواهان آنند، شخصیسازی نمایند.
نکته: هش یا همان چکیدهساز یا درهمساز، عملیات یکسویه ریاضی است که با کار بر روی متن ساده، متن hash را فراهم میآورد. به بیانی دیگر، هش تابعی است که ورودی (که میتواند یک متن ساده از عدد یا حرف و یا ترکیبی از هردو باشد) را به یک خروجی رمزگذاری شده با طول ثابت تبدیل میکند. هش، پایه و اساس فناوری بلاکچین است.
گرچه با شناسایی چنین محتواهایی مشکلات حل نمیشوند. گفته میشود بسیاری از مجریان پلتفرمهای رسانههای اجتماعی نیاز به درمان دارند، چرا که به دلیل انتشارات روزانه پستهای واقعا آزاردهنده و مخرب، در معرض خودکشی و یا انواع بیماریهای روانی قرار دارند.
شرکت Thron (سازنده Safer) اعلام کرده است این پلتفرم برای تعدیل کردن چنین تصاویری، یک گزینه عالی است. این پلتفرم، با شناسایی کودکآزاری با کمک هوشمصنوعی ، چنین محتواهایی را به صورت خودکار حذف میکند. البته براساس گفتههای مسیولان این طرح، Safer تنها بر روی عکس عمل میکند.
هدف نهایی Safer
یکی از مشتریهای مشهور Thorn، شرکت بسیار مشهور Flicker است. این شرکت با استفاده از Safer، فلیتر تصویری مربوط به کودکآزاری که در این پلتفرم منتشر شده بود، شناسایی کرد. پس از پیگیریهای انجام شده ، مجرمان این کودک آزاری که باعث آسیب و آزار به کودکان 18 ماهه تا 14 ساله بودند، شناسایی و دستگیر شدند.
Safer در حال حاضر برای هر شرکت فعال در ایالاتمتحده موجود است. Thorn قصد دارد سال آینده بعد از سفارشیسازی براساس نیازهای هر ملت به شناسایی کودکآزاری با کمک هوشمصنوعی، آن را به کشورهای دیگر نیز گسترش دهد.