
테크크런치, Ars테크니카 등 복수 외신에 따르면, 오픈AI(OpenAI)가 기존 DALL-E 이미지 생성 프로그램과 인공지능(AI) 언어 생성 모델 GPT 시리즈를 넘어서 대규모 언어 모델 GPT-3 기반 챗봇 ‘챗GPT(ChatGPT)’를 공개했다.
오픈AI는 공식 블로그를 통해 “챗GPT의 대화 형태는 사용자의 질문에 따라 답변을 하고, 대화 도중 실수를 인정한다. 또, 잘못된 전제에 맞서면서 특정 요청이 적절한지 판단한 뒤 부적절한 답변은 거부할 수도 있다”라고 설명했다.
지금까지 챗GPT는 시 작성 능력과 신규 코드 작성, 코딩 실수 교정 및 자세한 사례 제시, AI 예술 명령어 생성, 철학적 의견 설명 등 다양한 능력을 선보였다. 가장 눈에 띄는 특징은 혐오 발언과 폭력성 콘텐츠, 폭탄 제조법과 같이 해로울 수도 있는 질문에 답변을 거부한다는 점이다.
오픈AI는 인간 피드백에 따른 강화학습(RLHF) 기법을 이용해 특수한 명령어를 더하는 방식으로 AI의 윤리성을 개선했다.
이에, Ars테크니카는 오픈AI가 챗GPT를 모두에게 안전한 AI 모델을 제공하기 위한 올바른 방향을 반복하는 행보를 보였다고 평가했다. 하지만 챗GPT가 AI 윤리 문제를 완벽하게 해결했다는 뜻은 아니다.
AI에 가짜 시나리오나 시로 제한된 결과를 프레임화하도록 요청하는 등 준 소셜 엔지니어링 공격을 동원해 챗GPT의 기본 설정으로 적용된 콘텐츠 필터 중 일부를 우회하는 방법이 이미 알려졌다. 또, 챗GPT는 신속 주입 공격에 취약하다는 한계가 있다.
미국 테크 매체 테크크런치의 대럴 에더링턴(Darrell Etherington) 기자는 다양한 포켓몬 유형의 강점과 약점 질문으로 챗GPT의 답변 능력을 테스트했을 때, 챗GPT가 예상 답변을 모두 정확하게 보여주었다고 전했다.
에더링턴 기자는 “오픈AI의 챗GPT가 검색 엔진을 보조하는 역할을 한다는 잠재적인 가능성은 이전부터 제시됐다. 그러나 챗GPT는 검색 엔진 보조 툴을 넘어서 지금까지 등장한 기술 중 완벽하게 추가 정보를 제공할 수 있는 기술이 될 것으로 기대된다. 이 부분에서 구글이 긴장해야 할 것”이라는 견해를 제시했다.
[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]