오픈AI, 안전·보안위원회 구성…AI 안전성에 대한 논의 확산
페이지 정보
작성자 TISSUE 작성일 24-05-30 05:45 댓글 0본문
1. 오픈AI, 안전성을 높이기 위해 '안전·보안위원회'를 구성했다.
2. 안전·보안위원회는 중요한 결정에 대한 권고를 내리며 안전 장치를 개선할 예정.
3. 인간을 능가하는 초인공지능을 연구해온 '초정렬팀' 해체로 논란이 커졌다.
4. 전직 이사회 멤버들은 AI 규제에 대한 정부 개입을 촉구하고 있다.
5. AI 모델이 배우 스칼릿 조핸슨 목소리를 도용한 의혹도 제기됐다.
[설명] 오픈AI가 안전·보안위원회를 구성하여 안전성과 보안에 대한 결정을 내리고 발전시키기 위한 노력을 강화하고 있습니다. 이와 함께 초인공지능 연구팀 해체로 논란이 증가하고, 전직 이사회 멤버들은 정부 개입을 촉구하며 안전 문제를 제기하고 있습니다. AI 기술의 발전과 함께 안전 문제와 윤리적 고민이 더욱 중요해지는 시대에 있습니다.
[용어 해설]
- 안전·보안위원회: AI 안전과 보안을 위한 결정을 내리고 권고하는 조직.
- 초인공지능: 인간을 능가하는 수준의 인공지능.
- 규제: 규칙이나 법에 따르도록 강제하는 것.
- 논란: 다양한 의견이 공론화되어 논의되는 상황.
[태그]
#OpenAI #AI안전 #보안위원회 #초인공지능 #규제 #안전 #인공지능 #스칼릿조핸슨 #논란 #정부개입
관련링크
추천0 비추천 0
댓글목록 0
등록된 댓글이 없습니다.