캘리포니아 청소년의 자살 이후 ChatGPT에 자녀 보호 기능을 도입한 오픈AI
인공지능 스타트업의 챗봇이 자해 방법을 알려줬다는 혐의로 자살로 사망한 10대 청소년의 부모가 소송을 제기한 이후 , 오픈AI는 웹과 모바일에서 ChatGPT에 대한 자녀 보호 기능을 출시합니다.
이 회사는 월요일에 이 규제를 통해 부모와 청소년이 계정을 연결하여 청소년을 더 강력하게 보호할 수 있을 것이라고 말했습니다.
미국 규제 당국은 챗봇의 잠재적인 부정적 영향에 대해 AI 기업을 점점 더 면밀히 조사하고 있습니다. 지난 8월, 로이터 통신은 Meta의 META AI 규칙이 어떻게 아이들과 시시덕거리는 대화 )를 허용했는지 보도한 바 있습니다.
새로운 조치에 따라 부모는 민감한 콘텐츠에 대한 노출을 줄이고, ChatGPT가 과거 채팅을 기억하는지 여부를 제어하고, 대화를 오픈AI의 모델 학습에 사용할 수 있는지 여부를 결정할 수 있다고 Microsoft가 지원하는 이 회사는 X에서 밝혔습니다.
또한 부모는 특정 시간 동안 액세스를 차단하는 조용한 시간을 설정하고 음성 모드와 이미지 생성 및 편집을 비활성화할 수 있다고 오픈AI는 밝혔습니다. 그러나 부모는 청소년의 채팅 기록에는 접근할 수 없다고 회사는 덧붙였습니다.
시스템과 숙련된 검토자가 심각한 안전 위험의 징후를 감지하는 드문 경우, 부모에게는 청소년의 안전을 지원하는 데 필요한 정보만 통보될 수 있다고 오픈AI는 말했습니다.
메타는 또한 지난달 자사의 AI 제품에 새로운 청소년 보호 기능을 발표했습니다. 이 회사는 미성년자와의 자해 또는 자살에 대한 시시덕거리는 대화와 토론을 피하고 특정 AI 캐릭터에 대한 접근을 일시적으로 제한하도록 시스템을 훈련시킬 것이라고 말했습니다.
-
등록일 09.29
-
등록일 09.29