미국 청소년 12%가 AI로 감정 지원… '친구 대신'의 위험

핵심 요약: 미국 페인 리서치 센터의 조사에 따르면 12%의 미국 청소년이 AI 챗봇을 감정적 안정 또는 조언을 얻기 위해 사용하고 있으며, 이는 AI가 청소년들의 사회적 관계를 대체하는 경향을 보여주고 있다.
[도입부 - 2-3문장으로 강렬하게!] 미국 청소년의 12%가 AI 챗봇에 감정적 안정을 얻기 위해 의지하고 있음이 연구 결과로 드러났다. 이는 '친구 대신 대화'를 통해 사회적 고립 위험을 증대시키고, 심리적 건강 문제까지 유발할 수 있다는 우려를 불러일으키며, AI 기업들과 부모들의 반응도 달라지고 있다.
무슨 일이 일어났나
[본문 - 깊이 있는 스토리텔링!] 2026년 2월 페인 리서치 센터가 발표한 보고서에 따르면 미국 청소년의 AI 사용률은 높아졌다. 가장 흔한 사용 목적은 정보 검색(57%)과 학습 도움(54%)이었지만, 16%는 캐쥬얼 대화용으로, 12%는 감정적 지원/조언용으로 AI를 활용했다. 부모들의 인식과 청소년의 실제 사용률에는 차이가 있었다. 부모들은 51%가 자녀가 챗봇을 사용한다고 생각했지만, 청소년은 64%로 더 높은 비율을 보였다. AI를 정보 검색(79%)과 학습 도움(58%)에 사용하는 것은 부모의 승낙률이 높았으나, 캐쥬얼 대화(28%)와 감정 지원(18%)에는 승낙률이 낮았다. 특히 58%의 부모는 자녀가 이러한 목적으로 AI를 사용하는 것에 반대했다. Character.AI는 두 청소년의 자살 사건과 관련된 공개 비난 및 소송을 받아 18세 미만 사용자에게 챗봇 경험을 비활성화했고, OpenAI는 감정 지원에 특화된 GPT-4o 모델을 폐지하기로 결정했다.
왜 중요한가
[영향 분석 - 구체적으로!] 이 사실은 청소년의 AI 사용 패턴과 부모들의 인식 차이를 보여주며, AI 기술의 사회적 영향을 다시 한번 돌아보게 한다. 특히 감정 지원이라는 '비전문적인' 용도로의 확산은 심리학자들이 우려하는 바이다. Stanford 교수 Nick Haber는 "사람들은 사회적 생물이기에, 이 시스템이 고립시키는 과제가 있다"고 말했으며, AI와의 장기 대화가 외부 진실과 인간 관계에서 떨어져 있을 수 있음을 지적했다. 또한 기업들의 반응은 AI 안전에 대한 논쟁을 더욱 부각시켰다. Character.AI와 OpenAI의 결정은 사용자 건강을 우선하는 회사의 태도를 보여주지만, 이는 비용과 서비스 제한으로 이어질 수 있다.
내가 보기엔
[분석 - YOUR unique take!] AI가 청소년의 감정적 지원에 활용되는 것 자체는 매우 흥미롭다. 특히 정보 검색이나 학습 도움 외의 다른 용도로의 확장은 기술의 다양성을 보여준다. 하지만 심리학자들의 우려가 맞다고 생각한다. AI와의 대화는 사실적인 세계와 인간 관계에서 떨어져 있을 수 있으며, 이는 고립감과 심각한 정신 건강 문제로 이어질 수 있다. Character.AI와 OpenAI의 결정은 회사 책임감을 보여주지만, 이는 더 많은 규제와 안전 기능 개발이 필요할 것 같다. 미래에는 AI가 '친구' 역할을 대체하는 것이 아니라, 정신 건강 서비스의 보조 도구로 발전해야 할 것이다.
자주 묻는 질문
Q: 미국 청소년이 AI를 감정 지원용으로 사용하는 것은 어떤 의미인가? A: 이는 AI가 청소년들의 사회적 관계를 대체하거나 보완하고 있음을 나타낸다. 특히 정보 검색(57%)과 학습 도움(54%) 외에도 캐쥬얼 대화(16%)와 감정 지원(12%)이라는 다양한 용도로 사용되고 있어, AI가 청소년의 일상생활에서 더욱 중요한 역할을 하고 있다는 것을 보여준다. Q: 부모들은 자녀가 AI를 감정 지원용으로 사용하는 것에 대해 어떻게 반응하고 있나? A: 대부분의 부모(79%)는 정보 검색이나 학습 도움에 대한 승낙률이 높았지만, 캐쥬얼 대화(28%)와 감정 지원(18%)에는 승낙률이 낮았다. 58%의 부모는 자녀가 이러한 목적으로 AI를 사용하는 것에 반대했으며, 이는 부모들의 안전 우려가 높다는 것을 보여준다. Q: Character.AI나 OpenAI와 같은 기업들이 결정한 것은 무엇인가? A: Character.AI는 두 청소년의 자살 사건과 관련된 소송에 대한 반응으로 18세 미만 사용자에게 챗봇 경험을 비활성화했고, OpenAI는 감정 지원에 특화된 GPT-4o 모델을 폐지하기로 결정했다. 이 결정은 AI 안전과 사용자 건강을 우선하는 회사의 태도를 보여주지만, 서비스 제한으로 인해 사용자들의 불만이 있었다.
이 글은 Pew Research Center의 보도를 바탕으로 작성되었습니다.