Уязвимость к состязательным атакам и недостаточная интерпретируемость нейронных сетей ограничивают их внедрение в продакшн. Некоторые статьи показывают, что с помощью explainable AI («объяснимого» ИИ, XAI) можно не только отлаживать модели, но и противостоять атакам. Доклад состоит из обзора работ по состязательным атакам и XAI.
UralSeminars, 29 июля в 18:00 (по Екатеринбургу, GMT 5), в 16:00 (по Москве, GMT 3). Тема семинара “Explainable AI”. Спикер: Константин Архипенко, Институт системного программирования РАН, Москва
Ссылка на TG сообщества:
Трансляция на Youtube:
Сайт проекта:
5 views
4
0
2 weeks ago 00:01:31 1
Nvidia Explains how they reached 4090 Performance with The RTX 5070
2 weeks ago 00:02:11 1
Silent Hill 2 but it’s ruined by AI
4 weeks ago 00:34:18 1
Why Saudi Arabia is Building a $1 Trillion City in the Desert
2 months ago 00:24:13 1
PATH of EXILE 2: Ascendancy Explained + Trial of the Sekhema First Look - Hands-on Gameplay
3 months ago 00:30:38 1
Collective West hopes RUSSIAN economy will overheat and CRASH
3 months ago 00:19:04 1
Sweden Is Out of Control: Flooding Scandinavia With Crime | @VisualPolitikEN
3 months ago 00:13:29 1
🔥 NEW Ideogram CANVAS Update! — All Features Explained in Detail 🤯
3 months ago 00:11:41 1
Create Studio Pro Review ✅ Create Studio Pro Demo And 🎁 Create Studio Pro Bonus 🎁👇
3 months ago 00:15:26 1
How does the Soyuz Spacecraft work?
3 months ago 01:10:46 1
Israel, Iran and the Middle East Proxy Wars Explained - Colonel Richard Kemp