13일 구글 AI 홈페이지에 게재된 'Why we focus on AI (and to what end)'라는 제목의 글. [캡처=구글 AI]
13일 구글 AI 홈페이지에 게재된 'Why we focus on AI (and to what end)'라는 제목의 글. [캡처=구글 AI]

[시사프라임 / 박세연 기자] 생성 AI ‘챗GPT’가 돌연 인기를 끌며 ‘구글의 시대가 끝났다’는 평가를 받기도 했다. '챗GPT', '달리2' 등 'Open AI(오픈AI)'의 생성 AI 공개에 대한  구글의 입장이 13일 공개되었다.

이후 챗GPT의 언어 구사력이 주목을 받으며 5일만에 100만 명이 가입하는 등 열렬한 관심을 받았다. 더불어 2018년부터 거의 매 해 향상된 기술에 대중들은 충격과 기탄을 표했다.

마이크로소프트(MS) 사티아 나델라 CEO는 2019년 오픈AI와 10억 달러를 투자해 왔고, 지난 17일(현지 시간) 세계경제포럼에서 “MS의 모든 제품에 AI 도구를 통합할 계획”이라고 밝혔다.

2023년에 매개변수가 1조 개 이상으로 추정되는 ‘GPT-4’를 공개할 예정이다.  이에 생성AI, 챗봇 시장에 경계령이 떨어졌다. 비교 당사자인 구글은 생성 AI를 꾸준히 개발하고 있지만 지난해 8월 ‘람다2’를 어플 시장에 내놓은 데서 그쳤고 오픈AI의 ‘챗GPT’나 ‘달리(Dalle)’처럼 대중에게 시원하게 공개한 적이 없었기에 궁금증은 더 커져만 갔다.

지난 13일 구글AI 공식 홈페이지에는 여기에 대한 이유를 짐작할 수 있는 ‘Why we focus on AI(우리가 AI에 집중하는 이유)’라는 글이 올라왔다.

구글 최고 경영진 공동명의로 쓰인 이 글에 따르면 구글이 AI 개발에 집중하고 있고 현재 AI의 발전에 있어 가장 흥미로운 시기이며, 개인과 사회에 창조적이고 생산적인 기여를 하는 것이 AI 개발의 목적이라고 밝혔다.

이어 AI를 개발하는 데 있어서 복합성과 위험 요소에 대해 이해를 해야 함을 짚었다. ▲AI의 안전, 품질, 정확도가 의도와 다르게 작동하거나 학습 데이터 자체가 잘못된 경우 ▲사용자에 의해 잘못 사용될 경우 ▲(대화형 AI의 경우) 인간의 특성을 갖고 있지 않음에도 인간적인 것처럼 보일 수 있다는 등의 내용이다.

책임성 있게 접근하는 방법으로는 ▲개인정보 보호 및 사이버 보안 ▲안전한 사용 장려와 오용 방지 규정 ▲모범 이용사례 공유 ▲실질적인 책임 규정으로 사회적 신뢰도 구축 등을 꼽았다.

구글은 2022년 1월 논문을 통해 대화형 AI ‘람다’를 공개하고, 지난 13일에는 그림 생성 AI ‘뮤즈’를 공개했다. 람다와 뮤즈 모두 구글의 조심스러운 입장에 따라 외부에 공개되지는 않고 있다. 현재 AI 시장이 흥미롭다는 구글의 판단과 오픈 AI의 저돌적인 개발 및 프로그램 공개가 국내외 AI 시장에도 긍정적인 영향을 미칠 것으로 보인다.

저작권자 © 시사프라임 무단전재 및 재배포 금지