ژنراتورهای مصنوعی جعلی چهره می توانند بازگردانده شوند تا چهره های واقعی که روی آنها آموزش دیده بودند ، آشکار شود

[ad_1]

با این حال ، Kautz می گوید ، این فرض را بر این می گذارد که می توانید این داده های آموزشی را بدست آورید. او و همکارانش در انویدیا روش متفاوتی را برای به اشتراک گذاشتن داده های خصوصی ارائه کرده اند ، از جمله عکس چهره ها و سایر اشیا ، داده های پزشکی و موارد دیگر ، که به هیچ وجه نیازی به دسترسی به داده های آموزشی ندارد.

در عوض ، آنها الگوریتمی را توسعه دادند که می تواند داده هایی را که یک مدل آموزش دیده در معرض آن قرار دارد ، با معکوس کردن مراحل مدل در پردازش آن داده ها ، بازسازی کند. از یک شبکه تشخیص تصویر آموزش دیده استفاده کنید: برای تشخیص آنچه در یک تصویر است ، شبکه آن را از طریق یک سری لایه های نورون های مصنوعی عبور می دهد. هر سطح سطوح مختلف اطلاعات را از لبه ها گرفته تا اشکال و ویژگی های قابل تشخیص بیشتر استخراج می کند.

تیم کائوتز دریافتند که می توانند یک مدل را در وسط این مراحل متوقف کرده و با بازآفرینی تصویر ورودی از داده های داخلی مدل ، جهت آن را معکوس کنند. آنها این فناوری را بر روی انواع مدل های رایج تشخیص تصویر و GAN ها آزمایش کردند. در یک آزمایش ، آنها نشان دادند که می توانند تصاویر را به طور دقیق از ImageNet ، یکی از محبوب ترین مجموعه داده های تشخیص تصویر ، بازسازی کنند.

تصاویری از ImageNet (در بالا) در کنار کپی این تصاویر که با بازگرداندن یک مدل آموزش داده شده با ImageNet ایجاد شده است (در زیر)

NVIDIA

مانند وبستر ، تصاویر تکثیر شده بسیار شبیه به تصاویر واقعی است. کائوتز می گوید: “ما از کیفیت نهایی شگفت زده شدیم.”

محققان معتقدند که این نوع حمله فقط فرضی نیست. تلفن های هوشمند و سایر دستگاه های کوچک به طور فزاینده ای از هوش مصنوعی استفاده می کنند. به دلیل محدودیت های باتری و ذخیره سازی ، گاهی اوقات فقط نیمی از مدلها بر روی دستگاه پردازش می شوند و برای آخرین محاسبه محاسبه به ابر ارسال می شوند ، روشی که به محاسبه تقسیم معروف است. کائوتز می گوید ، اکثر محققان تصور می کنند که محاسبه تقسیم اطلاعات خصوصی از تلفن شخص را نشان نمی دهد زیرا فقط مدل آن به اشتراک گذاشته شده است. اما حمله او نشان می دهد که چنین نیست.

کائوتز و همکارانش اکنون در حال یافتن راه هایی برای جلوگیری از افشای اطلاعات خصوصی مدل ها هستند. او می گوید ما می خواهیم خطرات را به منظور به حداقل رساندن آسیب پذیری ها درک کنیم.

اگرچه آنها از تکنیک های بسیار متفاوتی استفاده می کنند ، او متوجه می شود که کارهای او و وبستر مکمل یکدیگر هستند. تیم وبستر نشان داد که داده های خصوصی را می توان در خروجی یک مدل یافت. تیم کائوتز نشان داد که داده های خصوصی را می توان با انجام خلاف این و بازسازی ورودی فاش کرد. کاوتز می گوید: “بررسی هر دو جهت برای درک بهتر نحوه جلوگیری از حملات مهم است.”

[ad_2]

Drake Beck

کارشناس سفر. خالق دوستانه نویسنده هیپستر دوست. دانش آموز عمومی.

تماس با ما