2월 8일(현지 시각), 구글이 공식 블로그를 통해 ‘멀티 검색(multisearch)’ 기능에 인공지능(AI)을 더하고, AI를 중심으로 한 새로운 기능을 전 세계로 적용하는 등 검색 기능과 지도, 렌즈 앱 등 자사 여러 서비스가 변화를 선보일 것이라고 발표했다.
멀티 검색 기능은 구글 렌즈(Google Lens)를 지원하는 모든 국가의 모바일 기기에 적용될 예정이다. 멀티 검색 기능은 지난해 4월 처음 공개된 기능으로, 사용자가 텍스트와 이미지를 동시에 사용하도록 지원한다.
멀티 검색 기능은 구글의 AI 기술인 ‘멀티태스크 유니파이드 모델(MUM)’을 기반으로 실행된다. MUM은 텍스트, 사진, 이미지 등 다양한 형태의 정보를 이해한 뒤 여러 주제와 개념, 아이디어 간 관계와 심층 정보를 제시한다. 현재 구글은 MUM을 구글 렌즈 비주얼 검색 기능에 통합해, 사용자가 텍스트에 시각 검색 질문을 추가하는 기능을 사용하도록 작업 중이다.
또, 구글은 멀티 검색 기능에서 한 단계 발전한 ‘내 주변 멀티 검색(multisearch near me)’를 추가한다. 해당 기능은 지역 사업자를 주로 지원하며, 수개월 이내로 전 세계로 지원 범위를 확대한다. 더불어 구글 렌즈 서비스도 전 세계로 지원 범위를 넓힐 예정이다.
구글은 공식 블로그를 통해 지도 기능 변화도 예고했다. 첨단 AI와 컴퓨터 비전을 활용해, 몰입형 뷰(immersive view)를 제공하면서 스트리트 뷰 수십억 가지와 항공 이미지로 풍부한 디지털 모델을 생성한다. 날씨, 교통 정보, 실시간 혼잡 정보 등도 함께 보여줄 예정이다.
예를 들어, 암스테르담 국립 미술관을 검색하면, 미술관 건물이 우뚝 솟은 가상 이미지와 출입구 위치를 한눈에 볼 수 있다. 타임 슬라이더(time slider)로 암스테르담 국립 미술관의 시간대별 모습과 날씨 정보, 가장 붐비는 곳의 위치도 파악할 수 있다.
구글은 첨단 AI 기법인 NeRF(neural radiance fields)를 활용해, 일반 평면 이미지를 3D 이미지로 재구성했다고 설명했다. 구글은 “NeRF로 조명, 건물의 질감, 주변 배경 등 검색 지역의 전체 맥락을 정확하게 재구성한다. 또한, 실내 공간의 조명과 분위기도 구현할 수 있다”라고 주장했다.
구글 지도의 몰입형 뷰는 런던, LA, 뉴욕, 샌프란시스코, 도쿄에 우선 적용되며, 수개월 뒤 암스테르담, 더블린, 피렌체, 베네치아 등 지원 범위를 확장할 예정이다.
한편, 구글은 AI를 적용한 자사 서비스 기능 업데이트 발표 이틀 전 챗GPT의 대항마 ‘바드(Bard)’를 공개했다. 특히, 이번 기능 업데이트 발표 하루 전 마이크로소프트가 챗GPT 통합과 함께 검색 엔진 빙(Bing)과 에지 브라우저의 변화를 공개했으며, 앞으로 AI를 기반으로 한 다수 인터넷 서비스의 변화와 혁신, 테크 업계의 경쟁 양상 등에 기대가 쏠린다.
[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]






















![[김대선 칼럼] 종교의 자유와 생명평화 문화의 확산](/news/data/2025/10/20/p1065590165479262_556_h.png)
![[구혜영 칼럼] 시스템 말고 사람을 교체하라](/news/data/2025/10/16/p1065594348054313_792_h.png)
![[기고] 필드하키, 남북 평화를 여는 새로운 그라운드](/news/data/2025/09/08/p1065577652443752_295_h.png)
![[윤창원 칼럼] 뜨는 도시, 지는 국가 – 지방정부 국제교류의 자율과 책임](/news/data/2025/08/27/p1065597151274916_658_h.png)
![[기고] 박찬대 ‘유감’](/news/data/2025/07/29/p1065571800897621_913_h.png)
![[기고] 내란종식 완수와 개혁·통합을 이끌 여당 대표의 리더십](/news/data/2025/07/28/p1065575493623584_535_h.png)


