본문 바로가기
IT

오픈AI의 GPT-5 발표 연기와 안전성 검증, AI 기술의 신뢰성 확보를 위한 이중 전략

by Flow Tech 2024. 8. 7.
728x90
반응형
반응형

최근 오픈AI가 차세대 인공지능 모델인 GPT-5를 올해 가을에 발표하지 않기로 했다는 소식이 전해졌다. 이는 AI 기술의 안전성과 윤리성을 강화하기 위한 중요한 전략적 행보로 보인다. 테크크런치를 비롯한 여러 외신 보도에 따르면, 오픈AI는 이번 협력을 통해 미국 AI안전연구소와 함께 GPT-5의 기술적, 윤리적 안전성을 검증할 계획이다. 이 글에서는 오픈AI의 결정 배경과 그 의의를 분석하고자 한다.

GPT-5 발표 연기의 배경

 

오픈AI, 올 가을 'GPT-5' 발표 안 한다

오픈AI가 오는 가을 개발자 행사에서 'GPT-5' 등 신제품을 공개하지 않을 예정이다. 이는 지난해 'GPT-4 터보' 등 주요 최신 제품이 개발자 행사에서 발표된 바와 대비된다. 6일 테크크런치에 따르면

n.news.naver.com

 

오픈AI가 올해 가을 개발자 행사에서 GPT-5를 발표하지 않기로 한 결정은 다소 놀라운 소식이었다. 오픈AI는 지난해 'GPT-4 터보' 등 주요 최신 제품을 개발자 행사에서 발표한 바 있으며, 많은 기대를 모았기 때문이다. 그러나 이번 행사에서는 새로운 모델 대신 기존 도구의 활용성을 확장할 수 있는 애플리케이션 프로그램 인터페이스(API)와 서비스 업데이트에 집중할 예정이다.

 

이런 조치는 최근 오픈AI가 기존 모델 'GPT-4o'와 'GPT-4o 미니' 등을 출시한 상황과 맞물린다. 샘 알트먼 오픈AI 최고경영자(CEO)는 'GPT-5' 모델의 파격적인 성능에 대해 여러 차례 언급한 바 있지만, 출시 시점에 대해서는 밝히지 않았다.

AI 안전성 검증의 필요성

오픈AI의 이번 결정은 AI 기술의 안전성에 대한 논란을 불식시키기 위한 시도로 보인다. 특히, 알고리즘의 편향성과 환각현상, 그리고 사용 윤리에 대한 철저한 검토가 포함되어 있다. GPT-5가 검증을 통과하지 못할 경우, 공개 시기를 연기하는 것도 고려하고 있다. 이는 AI 기술이 사회에 끼치는 영향을 최소화하고, 사용자의 신뢰를 확보하려는 노력의 일환이다.

안전성 논란의 배경

오픈AI의 안전성 논란은 올해 초부터 본격적으로 불거졌다. 오픈AI의 전 이사인 엘렌 토너는 "오픈AI가 윤리와 안전 강화보다 수익 창출에 집중했다"고 폭로하면서 논란을 일으켰다. 이에 더해, 오픈AI는 제품 안전성을 담당했던 '초정렬팀'을 해체했고, 팀을 이끌던 일리야 수츠케버 공동창업자 겸 최고과학자도 회사를 떠났다. 이러한 일련의 사건들은 오픈 AI의 안전성과 윤리에 대한 신뢰를 흔들었다.

안전성 확보를 위한 오픈AI의 노력

 

오픈AI, 美 정부에 'GPT-5' 우선 공개

오픈AI가 차세대 인공지능(AI) 모델 'GPT-5' 출시 전 안전성 검증을 위해 미국 정부에 우선 공개하기로 했다. 테크크런치 등 외신은 최근 오픈AI가 최신 AI 모델 GPT-5 평가를 위해 미국 AI안전연구소와

n.news.naver.com

 

오픈AI는 이러한 논란을 불식시키기 위해 다양한 조치를 취했다. 먼저, 안전·보안 위원회를 재설립하고, 미 국가안전보장국(NSA) 수장이자 퇴역장군인 폴 나카소네를 이사회 멤버로 영입했다. 나카소네 장군은 사이버 보안 분야에서 탁월한 경험을 가지고 있어, 오픈AI가 일반 인공지능(AGI) 개발을 안전하고 유익하게 진행하는 데 큰 도움을 줄 것으로 기대된다.

 

브렛 테일러 이사회 의장은 "나카소네 장군은 사이버 보안에서 탁월한 경험을 갖췄다"며, "오픈AI가 AGI 개발을 안전하고 유익하게 진행하도록 도울 것"이라고 밝혔다. 이러한 조치는 오픈AI가 AI 안전성에 소홀하다는 우려를 불식시키고, 기술의 신뢰성을 회복하기 위한 노력으로 평가된다.

기술 경쟁에서의 도전

지속적인 모델 성능 향상에도 오픈AI는 생성형 인공지능(AI) 경쟁에서 초창기 보유했던 기술 우위를 일부분 상실한 상태다. 구글의 실험용 생성형 AI '제미나이 1.5 프로(Gemini 1.5 Pro)'는 'LMSYS 챗봇 아레나' 벤치마크에서 'GPT-4o'를 제쳤고, 앤트로픽의 '클로드(Claude)'최신 모델도 일부 벤치마크에서 오픈AI 제품들을 앞서고 있다. 이는 오픈AI가 고품질 학습 데이터를 확보하는 데 어려움을 겪고 있기 때문이다. 많은 웹사이트가 회사의 크롤러를 차단하면서 데이터 접근이 제한되고 있으며, 고품질 데이터의 약 25%가 학습에 사용되지 않고 있다는 연구 결과도 있다.


728x90

오픈AI의 이번 결정은 AI 기술의 안전성과 윤리성을 강화하기 위한 중요한 전환점이 될 수 있다. 기술 혁신이 급속도로 진행되는 시대에, AI의 안전성과 윤리성은 그 어느 때보다 중요하다. 오픈AI가 미국 정부와 협력하여 GPT-5의 안전성을 검증하는 것은 AI 기술의 신뢰성을 높이고, 사용자들에게 보다 안전한 기술을 제공하기 위한 긍정적인 시도라고 생각한다.

 

그러나 이러한 노력에도 불구하고, AI 기술의 완전한 안전성을 보장하는 것은 여전히 어려운 과제다. AI 기술의 발전 속도와 그에 따른 윤리적, 사회적 영향은 계속해서 변화하고 있기 때문이다. 따라서, 오픈AI와 같은 기업들은 지속적으로 안전성 검증과 윤리적 검토를 강화하며, 기술 발전과 사회적 책임 간의 균형을 맞추기 위해 노력해야 할 것이다.

 

마지막으로, 오픈AI의 이번 결정은 다른 AI 기업들에게도 중요한 교훈이 될 수 있다. AI 기술의 발전은 단순한 기술적 혁신을 넘어서, 사회적 책임과 윤리적 고려가 필수적이다. 오픈AI의 선례를 통해, 더 많은 AI 기업들이 안전성과 윤리성을 우선시하는 기술 개발을 추구하기를 기대한다.

728x90
반응형