오픈AI, 내부고발자 고발.."인류 위험 봐주는 회사"
페이지 정보
작성자 TISSUE 작성일 24-07-14 18:22 댓글 0본문
1. 챗GPT 개발사인 오픈AI 내부 고발자들이 AI 기술 위험을 규제 당국에 신고하지 못하도록 막았다고 주장.
2. 일부 직원들이 회사의 비밀 유지계약을 규제 당국에 촉구하며 비판.
3. 오픈AI는 직원들에게 제한적인 고용, 퇴직 및 비밀 유지 계약을 체결했다는 주장.
4. 오픈AI가 안전보다 이익을 우선시하는 우려가 제기돼 소속기부 퇴출 가능성도 제기됨.
[설명]
AI 기술 개발사인 오픈AI가 내부 고발자들에 의한 비판을 받고 있다. 고발자들은 회사의 AI 기술이 인류에게 미칠 위험을 규제 당국에 보고하지 못하도록 불법적으로 제한을 두었다고 주장하고 있다. 이에 대해 오픈AI는 내부 고발 정책을 강화하겠다고 밝혔지만, 안전성에 대한 우려는 여전히 남아있다.
[용어 해설]
1. 내부고발자: 조직 내부에서 부정한 행위를 공개적으로 제보하는 사람을 말함.
2. 비영리 단체: 이윤을 추구하지 않고 사회나 대중의 이익을 위해 활동하는 단체를 가리킴.
3. 연방 규제 당국: 연방정부가 규제와 통제를 담당하는 공공기관을 가리킴.
[태그]
#OpenAI #내부고발자 #AI기술 #안전성 #기업윤리 #인류위험 #비영리단체 #규제당국 #챗GPT #인공지능 #회사이야기
관련링크
추천0 비추천 0
댓글목록 0
등록된 댓글이 없습니다.