에이전틱 AI. 갤럭시 S26이 들고 나온 이 낯선 단어가 화제예요. 내가 말하기 전에 AI가 먼저 맥락을 읽고 행동한다는 뜻이에요. 메시지 대화를 보다가 관련 사진을 알아서 찾아주고, 모르는 번호 전화를 대신 받아주고, 택시까지 불러주는 폰. 듣기엔 꿈같은 이야기인데, 왜 하필 지금일까요? 이건 갑자기 나온 게 아니에요. 삼성이 3년간 실패하고, 배우고, 방향을 틀어온 이야기가 있어요.
에이전틱 AI 이전에, 삼성은 AI 비서로 한번 크게 데였다
2017년으로 돌아가 볼게요.
삼성은 갤럭시 S8에 빅스비라는 AI 비서를 처음 넣었어요. “말만 하면 다 해주는 비서”라고 홍보했죠. 그런데 현실은 달랐어요. 말을 잘 못 알아들었어요. 엉뚱한 앱을 열었어요. 소비자들은 “기능을 과장했다”며 실망했습니다. (연합뉴스 보도)

그 뒤로 빅스비는 오랫동안 “안 쓰는 기능” 대명사였어요. 전용 버튼까지 만들어뒀는데, 사람들은 그 버튼을 다른 용도로 바꾸는 법을 검색했죠. 삼성은 “새미야”라는 새 호출어까지 검토하다 결국 없던 일로 했어요. (다음 보도)
빅스비의 실패는 단순한 기술 문제가 아니었어요. 사람들이 원하는 건 “대화하는 AI”가 아니라 “귀찮은 걸 대신 해주는 AI”였는데, 삼성은 그걸 오래 캐치하지 못했어요.
갤럭시 S24에서 AI폰을 처음 선언했지만, 정작 안 쓰는 사람이 대부분이었다
2024년 1월. 삼성은 갤럭시 S24를 “세계 최초 AI폰”이라고 선언하며 출시했어요. 실시간 통역, AI 사진 편집, 서클 투 서치 같은 기능을 대거 넣었죠. 사전예약 121만 대로 신기록을 세웠고, 생성형 AI폰 시장 점유율 58%를 차지했어요. (더벨 보도)
수치만 보면 대성공이에요. 그런데 속을 들여다보면 이야기가 달라요.

유럽 소비자 설문조사에서, 갤럭시폰 사용자 10명 중 7명은 AI 사진 편집 기능을 써본 적이 없다고 답했어요. 86%가 “사진에서 지우고 싶은 부분이 있다”고 했지만, 실제로 AI 편집툴을 쓴 사람은 26%뿐이었습니다. 이유요? “그런 기능이 있는 줄 몰랐다”는 답이 가장 많았어요. (베타뉴스 보도)
2025년 갤럭시 S25 때도 비슷했어요. 삼성은 “사용자 80%가 AI 기능을 사용해봤다”고 발표했지만, 실제로는 대부분이 AI라고 인지하지 못한 채 자동 보정 같은 기능을 쓴 거였어요. (AI타임스 보도)

더 뼈아픈 조사도 있었어요. 갤럭시 사용자의 94.5%가 “AI 구독료를 낼 의사가 없다”고 답한 설문도 나왔습니다. (레딧 설문)
정리하면 이랬어요. AI를 넣어서 폰은 팔았지만, 정작 소비자는 AI를 안 쓰고 있었어요. “AI폰”이라는 이름값을 하려면 뭔가 근본적으로 바꿔야 했어요.
그래서 방향을 바꿨다, “사용자가 찾아 쓰는 AI”에서 “알아서 다가오는 AI”로
에이전틱 AI는 이 고민의 결과예요.
기존 AI는 사용자가 먼저 찾아가야 했어요. 앱을 열고, 기능 버튼을 누르고, 명령어를 입력해야 했죠. 대부분의 사람은 그 과정 자체를 귀찮아하거나 모르니까 안 쓴 거예요.
갤럭시 S26의 에이전틱 AI는 반대예요. AI가 먼저 다가와요.

대표 기능인 나우 넛지는 메신저 대화를 읽다가 “이 사진 보내줘”라는 맥락이 나오면, 갤러리에서 관련 사진을 알아서 찾아 화면에 띄워줘요. “2월 26일 오전 9시 회의 괜찮으세요?”라는 메시지를 받으면, 캘린더를 확인해 일정 충돌 여부를 먼저 알려줘요. (삼성 뉴스룸 보도)

통화 스크리닝은 모르는 번호를 AI가 대신 받아 용건을 요약해줘요. 제미나이에게 “택시 불러줘” 하면, 앱을 열고 호출까지 자동으로 해요. 사용자는 마지막에 확인 버튼만 누르면 끝이에요. (조선비즈 보도)
한마디로, “찾아서 써야 하는 AI”에서 “살면서 자연스럽게 만나는 AI”로 바뀐 거예요.
에이전틱 AI 경쟁, 애플이 쫓아오기 전에 벌려야 했다
삼성이 이 타이밍에 에이전틱 AI를 밀어붙인 데는 또 다른 이유가 있어요. 애플이에요.
2024년부터 삼성은 AI폰 시장에서 선두였어요. 애플은 시리를 중심으로 AI를 구축했지만, 솔직히 시리의 AI 수준은 많이 뒤처져 있었죠.
그런데 상황이 바뀌고 있어요. 애플이 구글과 손잡았거든요. 아이폰 18부터 시리에 구글 제미나이를 결합한 AI 에이전트 체계를 구축할 예정이에요. 삼성의 오랜 파트너였던 구글이, 이제 애플에도 AI 무기를 제공하는 거예요. (한국경제 보도)
삼성 입장에서는 위기감이 컸어요.
그래서 갤럭시 S26에 빅스비, 제미나이, 퍼플렉시티까지 3개 AI 에이전트를 동시에 넣었어요. 구글 하나에만 의존하지 않겠다는 뜻이에요. 검색과 정보 탐색에 강한 퍼플렉시티를 끌어들여, 제미나이와는 다른 역할을 맡겼습니다. (매일경제 보도)
더밀크는 이 상황을 이렇게 분석했어요. “OS는 구글 안드로이드에 의존하고, 핵심 AI 에이전트도 외부 파트너에 기댄다. 삼성이 아무리 강력한 하드웨어를 만들어도, 소프트웨어 주도권은 점점 벗어나고 있다.” (더밀크 보도)
애플이 AI에서 따라잡기 전에, 에이전틱 AI라는 새로운 경험으로 격차를 벌려야 했어요. 그게 이번 갤럭시 S26의 전략적 배경이에요.
이 흐름이 향하는 곳, “편리함”과 “사생활” 사이의 줄다리기
에이전틱 AI의 미래를 생각하면 한 가지가 눈에 들어와요.
나우 넛지가 작동하려면, AI는 내 메시지를 읽어야 해요. 내 일정을 봐야 해요. 내 사진첩을 뒤져야 해요. 통화 스크리닝이 작동하려면, AI는 내 전화 내용을 들어야 해요.
편리하면 편리할수록, AI가 아는 내 정보는 많아져요.
네이버 프리미엄콘텐츠의 분석처럼, “에이전틱 AI는 메시지, 일정, 위치 정보 등 민감 데이터를 기반으로 작동하고 앱 제어 권한까지 수행하는 만큼 보안과 신뢰성 문제가 관건”이에요. (네이버 프리미엄콘텐츠 보도)
삼성도 이걸 알고 있어요. 그래서 갤럭시 S26 울트라에 프라이버시 디스플레이를 넣고, 개인정보 보호 알림 기능을 추가하고, 비공개 앨범을 만들었어요. “AI가 더 많이 알게 해줄 테니, 대신 보안도 강화할게”라는 메시지예요.
하지만 생각해보면, 이건 하나의 딜레마예요.
AI를 더 똑똑하게 만들수록, 내 데이터를 더 많이 줘야 해요. AI가 더 많이 알수록, 유출됐을 때의 위험도 커져요. 지금은 모든 처리가 온디바이스, 즉 폰 안에서 이뤄진다고 하지만, 기능이 복잡해질수록 클라우드 연동은 늘어날 수밖에 없어요.
그리고 AI 매터스의 분석대로, “제미나이 에이전틱 AI는 아직 제한된 앱에서만 작동하는 미리보기 단계”예요. 나우 넛지도 “얼마나 많은 맥락을 얼마나 정확하게 이해하느냐는 실사용에서 검증이 필요”한 상황이에요. (AI 매터스 보도)
에이전틱 AI는 분명 스마트폰의 다음 단계예요. 하지만 그 다음 단계로 가는 길 위에는 “내 데이터를 얼마나 넘겨줄 것인가”라는 질문이 놓여 있어요. 이 질문에 삼성이, 그리고 우리가 어떤 답을 내리느냐에 따라 에이전틱 AI의 미래가 결정될 거예요.
“알아서 해주는 폰”이 “너무 많이 아는 폰”이 되지 않으려면, 지금부터 지켜봐야 할 타이밍이에요.
- 관련 글 : 갤럭시 S26 | FINEIREAN