메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술대회자료
저자정보
Se-Yoon Oh (Agency for Defense Development) Hunmin Yang (Agency for Defense Development)
저널정보
제어로봇시스템학회 제어로봇시스템학회 국제학술대회 논문집 ICCAS 2023
발행연도
2023.10
수록면
1,395 - 1,400 (6page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
Physical adversarial attacks are a type of attack that aim to fool deep learning based object detectors by modifying the appearance of real-world objects or scenes. CG based simulation techniques are a type of method that use computer graphics to generate realistic adversarial examples that can be printed or projected onto physical objects or scenes. This technical research paper investigates physical adversarial attacks using synthetic image data and simulation based on computer graphics. Two application areas are explored, including object detection and physical adversarial attacks. The study presents successful attack results with an AP50 drop of 89%, demonstrating the vulnerability of object detection systems to physical adversarial attacks. The research utilizes synthetic image data and simulation to generate adversarial examples, providing a cost-effective and scalable method for testing the robustness of object detection systems. The findings of this study have important implications for improving the security and reliability of computer vision systems in real-world applications.

목차

Abstract
1. INTRODUCTION
2. RELATED WORK
3. SIMULATION-BASED ANALYSIS
4. EXPERIMENTAL RESULTS
5. CONCLUSION
REFERENCES

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-151-24-02-088265814