OpenAI가 '안전한 AI'팀을 해체하며, 미래를 연구하는 '최고 미래주의자'로 전환

OpenAI가 AI를 '안전하고 신뢰할 수 있는' 방향으로 만들기 위해 설립한 '미션 정렬팀'을 갑자기 해체했다고! 이건 어떤 팀일까? 아마 대부분이 'AI의 안전성과 인류 가치에 맞게 개발하는 것'이라는 부서였겠지. 그런데 왜 갑자기 해체하면서, 전 팀장인 Josh Achiam은 '최고 미래주의자'로 승진했다니? 이건 뭐가 일어나는 거지?
무슨 일이 일어났나
실제로 OpenAI는 TechCrunch에 보도된 내용을 확인해 '미션 정렬팀'의 구성원들을 다른 부서로 재배치했음을 확인했습니다. 이 팀은 2024년 9월 설립되었으며, AI가 인류의 이익과 일치하는 방향으로 행동하도록 보장하는 데 집중했다고 합니다. OpenAI의 정렬 연구 블로그에서 '복잡한 현실 상황에서 인간 의도를 따르며, 치명적이지 않은 행동을 하고, 제어 가능하고 검증 가능하며 인류 가치와 맞춤되는 것'이라고 설명했습니다. 그런데 이 팀의 해체가 '빠른 회사 내에서 일상적인 조직 개편'으로 설명됐습니다. 전 팀장 Josh Achiam은 새로운 역할을 통해 '인공 지능, AGI 등이 인류에게 어떻게 미래를 바꿀지 연구'에 집중하겠다고 밝혔습니다.
내가 보기엔
이건 좀 의아하지 않나? AI의 안전성을 담당했던 팀을 해체하고, 미래를 연구하는 사람으로 전환하는 것. '안전한 AI' 개발에 집중하던 부서를 없애고, 미래 예측에만 집중한다는 건데... 이건 실제로 AI 안전성에 대한 우려가 줄어들 것인지, 아니면 다른 곳에서 더욱 강화되고 있는 걸까? 사실 '미션 정렬'은 현재 AI 산업의 핵심 과제 중 하나이기 때문에 이런 변화는 많은 사람들의 시선을 끌었습니다. Josh Achiam이 새로운 역할에서 '인류 전체에게 유익한 인공 지능'이라는 OpenAI의 미션을 지원한다고 했지만, 팀 해체로 인해 실질적인 안전성 연구가 얼마나 영향받을지는 아직 불확실합니다. 만약 이런 변화가 계속되면, AI 개발자들은 더욱 '안전성'에 대한 책임감을 느끼게 될까? 아니면 '미래 예측'에만 집중하며 실제 사용자들의 안전을 위한 조치가 미흡해질 수도 있겠네요.