구글(Google)이 검색 서비스에 적용해 온 AI 모드(AI Mode)가 시각적 검색(visual search) 기능을 새롭게 도입하며 한층 진화했다. 이 기능은 사용자가 대화하듯 질문을 던지면, 텍스트뿐 아니라 이미지까지 함께 제시해 주는 방식으로 탐색과 쇼핑 경험을 재설계한다.
2025년 9월 30일, 인베스팅닷컴(Investing.com)의 보도에 따르면 이번 업데이트는 이번 주부터 미국 내 영어 사용자를 대상으로 우선 적용되며, 구글 검색창에서 자연어로 질의하면 실시간으로 시각적 결과를 제공한다.
이전에는 사용자가 결과를 좁히기 위해 수십 개의 필터를 직접 선택해야 했다면, 이제는 “dark tone을 활용한 maximalist 침실 인테리어 예시 보여줘”와 같이 서술형 요청만으로도 세밀한 이미지를 받아볼 수 있다. 이후 “강렬한 프린트가 있는 옵션 추가”처럼 추가 지시를 내리면 연쇄적으로 결과가 조정된다.
디자인 영감(Design inspiration)을 찾는 사용자 뿐 아니라 쇼핑 이용자에게도 적용 범위가 넓다. 예컨대 “너무 헐렁하지 않은 배럴진”이라는 간단한 문장만 입력해도 알맞은 상품 이미지와 구매 가능 링크가 함께 표시된다. 이후 “밑단이 크롭된 버전으로 바꿔줘”처럼 말을 이어가면 즉시 결과가 재구성된다.
각 이미지 하단에는 해당 상품이나 콘텐츠에 대한 자세히 보기(learn more) 링크가 포함된다. 클릭 시 판매처, 가격, 재고 현황 등의 정보를 바로 확인할 수 있어 구매 전환 경로가 크게 단축된다.
구글은 “쇼핑 그래프(Shopping Graph)”를 통해 전 세계 리테일러가 등록한 50억 건 이상의 상품 데이터를 실시간으로 분석한다. 특히 약 20억 개 항목이 시간당 한 번 꼴로 갱신돼, 가격 변동과 재고 변화를 빠짐없이 반영한다는 점이 핵심이다.
기술적으로는 구글 렌즈(Google Lens)와 이미지 검색에서 축적한 컴퓨터 비전 능력이, 다중 모달 언어 모델 제미니(Gemini) 2.5와 결합됐다. 이를 통해 주 피사체뿐 아니라 보조 오브젝트·재질·배경 요소까지 파악하는 “시각 검색 팬아웃(visual search fan-out)” 기법이 구현됐다.
모바일 환경에서는 화면에 표시된 특정 이미지를 지정한 뒤 “이 소파는 어떤 소재야?”처럼 후속 질문을 입력하면, 해당 소파의 소재·가격대·유사 제품 등 추가 정보를 곧바로 확인할 수 있다.
제미니(Gemini) 2.5란?
구글이 자체 개발한 차세대 멀티모달 언어 모델로, 텍스트·이미지·코드 등 여러 형식의 데이터를 동시에 이해하는 능력이 특징이다. 기존 GPT 계열과 유사하지만, 구글 생태계에 최적화돼 검색·지도·쇼핑 등 다양한 서비스에 긴밀히 연동된다.
전문가들은 이번 업데이트가 검색 시장의 패러다임 전환을 예고한다고 평가한다. 음성·텍스트·이미지가 하나의 대화 흐름으로 융합되면서, 사용자는 더 이상 “키워드”를 조합하기 위해 머리를 싸맬 필요가 없다. 동시에 리테일러 입장에서는 제품 노출 기회가 대폭 확대돼 온라인 전환율 개선 효과가 기대된다.
광고·브랜드 전략 측면에서도 파급력이 크다. 이미지를 기반으로 한 추천이 강화되면, 시각적 스토리텔링을 잘 구현하는 브랜드가 우위를 점할 가능성이 높다. 다만 검색 결과에 등장할 수 있는 생성 AI 이미지와 실제 제품 이미지 간 투명성 문제도 향후 과제로 지목된다.
이번 기능은 초기 버전이지만, 다국어 지원·음성 검색 통합·3D 렌더링 등 후속 업데이트가 이어질 것으로 예상된다. 업계에서는 “검색이 곧 커머스”라는 공식이 한층 강화되며, 아마존·핀터레스트·틱톡 등 경쟁 플랫폼 간 기술 각축전도 가속화될 전망이라고 본다.
본 기사는 인공지능의 도움을 받아 작성됐으며, 편집자의 검수를 거쳤다.

