사회

딥페이크 기술 악용 피해 대응 강화

페이지 정보

작성자 TISSUE 작성일 24-08-29 00:47 댓글 0

본문

 딥페이크 기술 악용 피해 대응 강화

 newspaper_19.jpg



1. 올해 이미지 합성 기술로 인한 딥페이크 피해 신고 건수 196건 발생.
2. 교육부, 딥페이크 대응 전담 조직 구성하여 피해자 지원과 예방교육 강화.
3. 여성가족부와 과학기술정보통신부, 성착취물 탐지와 삭제 방안 협력 논의 중.

[설명]
올해 들어 딥페이크 기술을 통해 불법 합성물이 증가하면서 학생과 교사를 비롯한 많은 사람들이 피해를 입고 있습니다. 교육부는 이에 대응하여 학교 딥페이크 대응 전담 조직을 구성하여 피해자 지원과 예방교육을 강화할 예정입니다. 또한, 여성가족부와 과학기술정보통신부는 성착취물을 빠르게 탐지하고 삭제하는 방안에 대한 기술 개발을 위해 협력하고 있습니다.

[용어 해설]
- 딥페이크: 인공지능을 이용하여 사람의 얼굴이나 목소리를 합성하여 가짜 영상이나 오디오를 만드는 기술.
- 성착취물: 성적인 내용이 포함된 영상이나 사진.

[태그]
#Deepfake기술 #피해대응 #딥페이크예방교육 #성착취물탐지 #피해자지원 #영상합성기술 #인공지능악용 #여성가족부 #과학기술정보통신부 #민원접수번호 #이메일문의 #24시간제보

추천0 비추천 0

댓글목록 0

등록된 댓글이 없습니다.



구글트랜드 오늘의 핫이슈

 

당신의 관심과 사랑이 사이트의 가치를 만듭니다.
Copyright © tissue.kr. All rights reserved.