
핵심 개요
OpenAI가 AI 비서에 대한 과도한 정서적 의존 보고와, 자살 방법을 문의했던 10대 관련 소송 등을 계기로 ChatGPT의 안전 장치를 대폭 강화합니다. 이번 조치는 ChatGPT 청소년 보호를 중심으로, 연령에 따라 경험을 자동으로 구분하고 미성년자에게는 보다 엄격한 제한을 적용하는 데 방점이 찍혀 있습니다.
ChatGPT 청소년 보호의 배경
OpenAI는 “10대는 AI와 함께 자라고 있으며, 15세에게 하는 답변은 성인에게 하는 답변과 달라야 한다”는 원칙을 바탕으로, 대화 맥락을 통해 연령대를 추정해 이용 경험을 자동 분리하겠다고 밝혔습니다. 이는 ChatGPT 청소년 보호를 제품 전반의 기본 설계로 끌어올리려는 시도로 볼 수 있습니다.
연령 기반 응답과 자동 제한
13세 이상 18세 미만 이용자는 계속 사용 가능하지만, 성인과 달리 여러 자동 제한이 적용됩니다. 예를 들어 ‘플러팅(추파) 모드’ 유도는 차단되고, 자살·자해 방법에 관한 대화에는 응하지 않습니다. 창작 과제라며 우회하거나 이른바 ‘탈옥’ 프롬프트를 써도 동일하게 막습니다. 반면 성인은 이러한 주제에 대해 지원적인 맥락의 대화를 할 수 있습니다. 또한 긴급·임박한 위험 신호가 포착될 경우(정의는 불명확) 관련 기관에 통지할 가능성도 언급했습니다.
연령 예측 시스템과 신분 확인
OpenAI는 사용 행태를 기반으로 연령을 추정하는 ‘연령 예측 시스템’을 구축 중이며, 판단이 불확실하면 기본적으로 미성년자 경험을 적용합니다. 아울러 일부 국가·상황에서는 이용 목적에 부합하는 연령임을 증명하도록 신분증 업로드(신분 확인)를 요구할 수 있다고 밝혔습니다. 성인에게는 프라이버시 타협이 될 수 있음을 인정하면서도, 안전을 위한 가치 있는 교환으로 본다는 입장입니다.
보호자 통제 기능(Parental Controls)
가정에서도 ChatGPT 청소년 보호를 뒷받침하도록 보호자 통제가 새로 제공됩니다(2025년 9월 말 제공 예정). 부모는 간단한 이메일 초대로 본인 계정과 13세 이상 자녀 계정을 연결하고, 10대 전용 모델 행동 규칙을 바탕으로 자녀에게 맞는 응답 가이드를 설정할 수 있습니다. 또한 특정 기능(메모리, 채팅 기록 등)을 비활성화하고, 시스템이 자녀의 급성 스트레스 상황을 감지하면 알림을 받도록 설정할 수 있습니다. 드물지만 부모에게 연락이 닿지 않는 비상 시에는 법 집행기관 개입 가능성이 있으며, 신뢰 구축을 위해 전문가 자문을 거칩니다. 더불어 자녀의 사용을 금지하는 블랙아웃 시간도 설정할 수 있습니다.
업계와 기업에 미치는 파장
성인 이용자의 경험은 크게 달라지지 않겠지만, 주간 활성 이용자 7억 명을 보유한 최대 규모 서비스의 변화인 만큼 파급력이 큽니다. 타 플랫폼도 유사 기능을 도입하거나 자체 버전을 내놓을 가능성이 높습니다. OpenAI의 이번 조치는 개인·기업 영역 전반에서 책임 있는 사용으로 성숙해지는 신호이며, 기업 고객 역시 자사 제품에서 미성년자를 분리·보호하는 체계를 재점검해야 합니다. 앞으로 소비자들은 다양한 도구에서 ChatGPT 청소년 보호 수준에 준하는 안전 장치를 기대하게 될 것입니다.