12/30/2025

가독성의 은밀한 비용, 코드 포맷팅이 LLM 예산을 어떻게 소모하는가?

아카이브(arXiv.org)에서 흥미로운 논문을 읽었고 내용을 정리해봅니다.

소프트웨어 엔지니어링 역사에서 “가독성”은 성역과도 같은 가치였습니다. 코드는 컴퓨터가 실행하기 위해 작성되지만, 인간이 읽기 위해서도 작성된다는 이야기가 많았지요. 그래서 개발자들은 들여쓰기 규칙을 놓고 탭과 스페이스 논쟁을 벌이기도 했답니다. 이러한 것들은 결국 “인간의 인지 부하”를 줄이기 위함이었지요.

그러나 LLM이 주도하는 AI기반 코딩의 시대가 도래하면서 예상치 못했던 상황들이 발생하고 있습니다. “우리가 주변 동료를 위해 넣어둔 그 많은 공백과 줄바꿈이 과연 AI에게도 유용한가?”라는 질문에 답을 해야하는 시점입니다. 제가 읽은 논문은 이 질문에 대해 충격적인 답을 내놓습니다. 우리가 코드 가독성을 높이기 위해 사용하는 포맷팅 요소들이, LLM의 관점에서는 아무런 의미 정보가 없는 “노이즈”일 뿐이고, 막대한 토큰 비용을 발생시키고, 추론 속도를 저하시키는 주범이라는 것입니다.

위 그림은 포맷팅된 자바 코드와 포맷팅되지 않은 자바 코드 조각을 비교한 것입니다. 같은 배경색으로 표시된 문자는 동일한 토큰을 나타냅니다. 포맷팅되지 않은 코드는 구문의 정확성을 유지하면서 들여쓰기, 공백 및 줄 바꿈을 제거하여 생성됩니다.

그럼 한번 내용을 상세하게 파헤쳐볼까요?


문제의 정의: 토큰 경제와 공백 문자

현대 개발은 IDE에서 코드를 작성할 때 자동 포맷터를 사용하여 코드를 예쁘게 정렬합니다. 함수 인자가 길어지면 줄을 바꾸고, 블록 사이에서는 빈 줄을 넣어 가독성을 확보합니다. 이런 시각적 구조화는 인간의 뇌가 코드를 패턴으로 인식하는데 필수적입니다.

그러나 LLM은 코드를 2차원 구조가 아닌 1차원 방식으로 인식합니다. LLM에게는 개행이나 공백은 토큰일 뿐입니다. 문제는 이것이 전체 코드의 상당 부분을 차지하고 있다는 점입니다.

LLM의 비용은 토큰 수에 비례합니다. 토큰 수가 늘어날수록 아래와 같은 현상이 발생합니다.

  1. 비용 증가: 불필요한 공백처리에도 비용을 지불해야 합니다.
  2. 지연 시간 증가: 모델이 처리하고 생성해야 할 토큰이 많아지기에 응답 속도가 느려집니다.
  3. 컨텍스트 윈도우 낭비: 제한된 컨텍스트에 더 많은 유효 코드를 담지 못하고 공백으로 채우게 되어, 코드 분석 시 성능 저하를 유발합니다.

이 비효율성의 원인은 BPE(Byte Pair Encoding)와 같은 Tokenizer의 작동 방식에 있습니다. Tokenizer는 자주 등장하는 문자열 패턴을 하나의 토큰으로 압축하려 시도합니다. 하지만 코드의 공백 패턴을 매우 다양하고 불규칙하기에 효율적인 압축이 어렵습니다.

일반적으로 int a = 1; 에 대한 토큰화는 [int], [ a], [ =], [ 1], [;] 이렇게 수행됩니다. 만약에 개행이 있으면 [\n], [\n] 으로 토큰화됩니다.

연구에 따르면, 소스 코드에서 포맷팅 요소를 제거하는 것만으로도 전체 토큰의 약 24.5%를 줄일 수 있다고 합니다. 이는 우리가 LLM에 지불하는 비용의 1/4이 단지 코드를 예쁘게 만들기 위한 포맷팅 처리에 쓰이고 있음을 시사합니다.


연구 분석

논문의 연구팀은 아래의 가설을 검증하기 위해 실증 연구를 수행했습니다. 연구의 핵심 가설은 세 가지 입니다.

  1. RQ1: 포맷팅 제거가 LLM의 성능과 효율성(토큰 감소)에 어떤 영향을 미치는가?
  2. RQ2: 어떤 포맷팅 요소(개행, 들여쓰기)가 가장 큰 영향을 미치는가?
  3. RQ3: LLM이 비정형 코드를 생성하도록 최적화 할 수 있는가?

연구팀은 공정한 평가를 위해 아래의 실험 환경을 구축했습니다.

  • 대상 언어: Java, Python, C++, C#
  • 실험 상용 모델: GPT-4o, Gemini-1.5-pro, Claude-3.5-Sonnet
  • 실험 오픈 모델: DeepSeek-Coder-V2, StarCoder2, CodeLiama
  • 평가 방식: 코드의 중간 부분을 비워두고 LLM이 이를 채우게 하여, 문맥 이해도와 생성 능력을 평가
  • 데이터셋: 각 언어별 대규모 리포지토리 데이터

실험은 원본 코드와 구문적 정확성은 유지하되 모든 시각적 포맷팅을 제거한 코드를 각각 모델에 입력하여 비교하는 방식으로 진행되었습니다.


RQ1: 성능 저하 없는 효율성 증대

실험 결과는 시각적 포맷팅을 제거한 코드를 사용했을 때, LLM의 코드 생성 성능은 떨어지지 않거나, 일부 케이스에서는 향상되었습니다.

  • 토큰 감소 효과: 4개 언어 평균 24.5%의 입력 토큰 감소가 확인되었습니다. 이는 별도의 알고리즘적 압축 없이, 단순히 텍스트 전처리만으로 얻을 수 있는 수치입니다.
  • 성능 유지: GPT-4o나 Gemini-1.5와 같은 모델들은 포맷팅이 없는 코드(한줄로 이어진 코드)를 입력받아도, 그 의미를 완벽하게 파악하고 올바른 코드를 생성했습니다.

위 결과는 LLM에게 코드는 텍스트라기보다 논리적 심볼의 연속이라는 가설을 뒷받침해줍니다. 인간에게는 가독성이 인지적 윤활유 역할을 했지만, LLM에게는 방해물이 될 수 있다는 것입니다.


RQ2: 토큰 낭비의 주범은 개행

연구팀은 어떤 포맷팅 요소가 가장 많은 토큰을 낭비하는지 요소별 제거 실험을 수행했습니다.

  • 개행(Newlines): 토큰 증가의 가장 큰 원인입니다. 특히 함수 선언부, 긴 인자 리스트, 블록 구분을 위한 빈 줄 등이 누적되어 막대한 토큰을 소모합니다.
  • 들여쓰기(Indentation): 토큰 증가 영향도는 높음입니다. 중첩된 루프나 조건문이 많은 코드에서 급격히 증가합니다. Python과 같이 들여쓰기가 강제되는 언어에서는 제거가 제한적일 수 있습니다.
  • 연산자 공백: 토큰 증가 영향도는 낮습니다. a = b + c를 a=b+c로 줄이는 것은 토큰 수에 큰 영향을 주지 않았습니다. 대부분의 Tokenizer가 이를 효율적으로 처리하기 때문입니다.

위의 결과를 보면 개행 문자 제거가 가장 드라마틱한 효과를 보였습니다. 예를 들어 C++ 코드에서 개행을 모두 제거했을 때, Claude 모델에서는 입력 토큰이 약 18.7% 감소했습니다. 이는 코드 스타일 가이드가 권장하는 한 줄에 하나의 명령문 규칙이 LLM 시대에는 비용 효율성을 저해하는 요인이 됨을 시사합니다.


RQ3: 입력뿐만 아니라 출력도 줄일 수 있는가?

입력 토큰을 줄이는 것은 이미 작성된 코드를 전처리하면 되기에 비교적 쉽습니다. 연구팀은 LLM이 생성하는 코드도 포맷팅을 제거하여 비용을 아낄 수 있는지에 대해 두 가지 테스트를 했습니다.


테스트 1: 프롬프트 엔지니어링

프롬프트에 “불필요한 공백이나 줄바꿈을 넣지 말고, 한 줄로 코드를 작성해줘”라고 지시하는 방식입니다. 이는 모델별 편차가 컸고 GPT-4o가 지시를 잘 따르며 토큰을 줄였다고 합니다. Gemini-1.5의 경우, C++ 코드 생성 시 포맷팅을 제거하라는 지시를 과도하게 해석하여 문법적으로 잘못된 코드를 생성했습니다. 이는 프롬프트만으로는 복잡한 문법 규칙을 유지하면서 포맷팅만 제거하는 미묘한 제어를 하기 어렵다는 것을 보여줍니다.


테스트 2: 파인 튜닝

적은양의 비정형 코드 데이터셋으로 모델을 추가 학습 시키는 방식입니다. 결과는 성공적이었고, 단 50개의 비정형 코드 샘플만으로 파인 튜닝을 해도, Gemini-1.5와 GPT-4o 모두 성능 저하없이 출력 토큰을 각각 35.9%, 24.8%를 줄였습니다. 이는 LLM이 코드의 “형태”가 아닌 “의미”를 학습할 수 있는 유연성을 가졌음을 의미합니다. 자체 코딩 모델을 구축할 때, 학습 데이터에서 포맷팅을 제거하는 전처리를 수행하면 추론 속도와 비용면에서 훨씬 유리한 모델을 만들 수 있다는 결론에 도달 합니다.


양방향 코드 변환 도구

본 논문의 결과를 현장에 적용하기 위해서 연구팀은 양방향 코드 변환 도구를 개발하여 공개했습니다. 이 도구는 가독성과 효율성이라는 상충하는 가치를 조화시키는 가교 역할을 합니다.

본 도구는 사람이 읽기 쉽고 형식이 잘 갖춰진 코드와 LLM이 사용하기 편리한 간결한 코드 간의 양방향 변환을 지원합니다.

위 그림에서 볼 수 있듯이, 도구를 사용하면 이중 변환 추론 워크플로우를 구축할 수 있습니다. 이를 통해 LLM은 효율적이고 간결한 코드의 이점을 누리는 동시에 개발자는 익숙한 포맷팅의 코드를 사용할 수 있습니다. 입력 코드에서 서식 요소를 제거하여 LLM이 이해하는데 필요한 토큰 사용량을 줄입니다. 출력에서는 LLM이 생성한 코드의 서식을 복원하여 사람이 읽기 쉽도록 합니다.

연구팀은 MCEval(Massively Multilingual Code Evaluation, 대규모 다국어 코드 평가) 데이터셋을 활용해 도구의 안정성을 검증했습니다.

  • 무결성 검증: 변환 전후 코드의 AST(Abstract Syntax Tree)가 동일함을 100% 검증했습니다. 즉, 로직이 변질될 위험이 없습니다.
  • 처리 속도: 평균 76ms의 지연 시간을 기록했습니다. LLM의 네트워크 왕복 시간이나 추론 시간에 비하면 무시할 수 있는 수준입니다.

시사점

이 연구 결과는 LLM처리에서 코드 가독성의 숨겨진 비용을 밝히고, “인간에게 좋은 것이 반드시 AI에게도 좋은 것은 아니다.”라는 시사점을 줍니다.

  1. 가독성의 비용 인식: 코드의 공백과 줄바꿈은 LLM 예산의 약 1/4을 낭비하고 있습니다. 이를 인지하고 관리해야 합니다.
  2. 안전한 제거: 최신 LLM은 포맷팅이 없어도 코드의 로직을 완벽하게 이해합니다. 두려움 없이 압축해도 됩니다.
  3. 도구의 도입: 양방향 변환 도구를 개발 파이프라인에 통합하는 것을 고려해야 합니다.

우리는 오랫동안 코드를 “인간이 읽기 위한 문학”처럼 다루어 왔습니다. 하지만 AI와 협업하는 시대에 코드는 “AI가 처리할 데이터”의 성격도 동시에 가지게 됩니다. 이제 개발자들은 두 가지 모드를 유연하게 오가야 합니다. 코드를 작성하고 리뷰할 때는 최대한 가독성을 높여야 하지만, 이를 AI에게 넘길 때는 과감하게 군더더기를 덜어내야 합니다.


참고:

12/24/2025

WeKnora v0.2.0 런칭

얼마전 Tencent에서 WeKnora v0.2.0을 런칭했습니다. 그런데 최근의 움직임과 약간 다른 느낌이 들었습니다.

최근 구글의 Gemini나 OpenAI의 모델들이 100만 토큰 이상의 방대한 컨텍스트를 한 번에 처리하기 시작하면서, 이제 RAG(Retrieval-Augmented Generation)의 시대는 끝났다라고 흔히들 얘기하는 시점이니까요. 책 수백 권 분량을 한 번에 AI에게 던질 수 있는데, 왜 굳이 복잡하게 RAG를 거쳐야 하느냐는 논리입니다.

한편으로는 이렇게 생각해볼 수 있습니다. 아무리 큰 바구니(컨텍스트)가 있어도, 그 안에 수많은 데이터를 다 담을 수는 없으며, 매번 수백만 줄의 텍스트를 읽게 하는 것은 비용과 시간을 낭비할 수 있다고 볼 수 있습니다. 이런 배경으로 인해 Tencent가 공개한 WeKnora는 Agentic RAG를 제시한 것이 아닌가 싶네요.

WeKnora를 이해하기 전에 왜 현 시점에서 RAG가 필수적인지 짚고 넘어갈 필요성이 있습니다.

  • 비용 효율성: 100만 토큰을 매번 사용하면서 질문하는 것은 꽤 많은 통행료를 내는 것과 같습니다. RAG는 전체 데이터 중 필요한 것만 찾아 모델에게 전달하기에 비용을 절감할 수 있습니다.
  • 답변 속도: 거대 모델이 방대한 데이터를 읽고 답하는 데는 꽤 오랜 시간이 걸릴 수 있습니다. 그러나 고성능 RAG 엔진은 빠르게 답변을 생성합니다.
  • 환각 증상 방지: 모델이 아무리 똑똑해도 기억에 의존하면 거짓말을 할 수 있습니다. 명확한 근거를 주면 환각 증상을 예방할 수 있습니다.

위 관점에서 WeKnora를 보면, 단순히 문서를 데이터베이스에 저장하는 것을 넘어, AI가 그 문서를 이해하고, 필요한 정보를 찾기 위해 추론하며, 외부 도구를 사용해 검증하는 전 과정을 자동화합니다. 이미 Tencent 내부에서 Dog fooding으로 검증하지 않았을까? 라는 생각이 듭니다.

최근 업데이트된 v0.2.0은 단순한 검색 도구에서 자율형 AI 비서로 격상시켰습니다. 그 이유는 아래와 같습니다.

1) ReACT 에이전트 모드

기존 RAG는 질문을 받으면 검색하고 끝이었습니다. WeKnora의 에이전트 모드는 ReACT(Reason + Act) 알고리즘을 사용합니다.

  • 추론(Reason): 사용자가 우리 회사 작년 매출과 올해 전망을 질문했네? 그럼 작년 결산내역과 올해 사업 계획서 두 개를 찾아야겠다.
  • 행동(Act): 실제로 두 문서를 검색하고, 필요하다면 외부 검색을 통해 경쟁사의 동향까지 파악
  • 결과: 단순 요약이 아니라, 여러 출처의 데이터를 종합한 인사이트를 제공

2) MCP(Model Context Protocol) 지원

WeKnora는 앤트로픽이 주도하는 MCP 규격을 채택했습니다. 이는 WeKnora가 구글 드라이브, 슬랙, 깃허브 등 다양한 외부 서비스 및 앱과 연결될 수 있음을 의미합니다. 지식이 문서내에서만 머물지 않고, 여러 서비스 및 도구를 통해 추출됩니다.

3) GraphRAG

단순 키워드 검색은 관련 단어가 없으면 답을 못합니다. WeKnora는 지식 그래프(Knowledge Graph) 기술을 도입해 단어와 단어 사이의 관계를 파악합니다. “A 프로젝트 담당자가 누구야?” 라는 질문에 “그 담당자가 작년에 쓴 B 문서에 따르면…” 식으로 연관도니 모든 정보를 캐낼 수 있습니다.

WeKnora의 새로운 기능은 아래와 같습니다.

WeKnora는 모듈 방식을 채택하여, 문서에 대한 이해와 검색 파이프라인 구축을 지원합니다.

ReACT 에이전트 모드

  • 내장 도구를 사용하여 지식 기반을 검색할 수 있는 새로운 에이전트 모드
  • MCP 도구 및 웹 검색을 호출하여 외부 서비스에 엑세스
  • 종합적인 요약 보고서를 위한 여러번의 반복 및 숙고
  • 교차 지식 기반 검색 지원

다중 유형 지식 기반

  • FAQ 및 문서 지식 기반 유형 지원
  • 폴더 가져오기, URL 가져오기, 태그 관리
  • 온라인 지식 입력 가능
  • FAQ 항목 일괄 가져오기 및 삭제

MCP 도구 통합

  • MCP 프로토콜을 통해 에이전트 기능을 확장
  • 내장형 uvx 및 npx MCP 런처
  • Stdio, HTTP Streamable, SSE 전송 지원

웹 검색 통합

  • 확장 가능한 웹 검색 엔진
  • DuckDuckGo 내장 검색 기능

대화 전략 설정

  • 에이전트 모델과 일반 모드 모델을 별도로 구성
  • 구성 가능한 검색 임계값
  • 온라인 프롬프트 구성
  • 다중 턴 대화 동작에 대한 정밀한 제어

새롭게 디자인된 UI

  • 대화 인터페이스에서 상담원 모드/일반 모드 전환 기능
  • 툴 호출 실행 프로세스 표시
  • 시간 순서대로 그룹화된 세션 목록
  • 지식 기반 페이지의 탐색 경로

인프라 업그레이드

  • MQ 기반 비동기 작업 관리
  • 버전 업그레이드 시 데이터베이스 자동 마이그레이션
  • 빠른 개발 모드 지원

AI 모델 자체가 똑똑해지는 것보다 더 중요한 것은 “모델이 데이터를 얼마나 정확하게 알고 있는가?” 입니다. WeKnora는 Long Context LLM이 줄 수 없는 경제성, 정확성 그리고 확장성을 제공합니다.

에이전틱 RAG가 궁금하면 한번 경험해보세요.

WeKnora 기술 스택

  • Backend: Go
  • Frontend: Vue.js (중국이다보니…)
  • 백터 데이터베이스: PostgreSQL(pgvector), Elasticsearch
  • LLM 지원: Qwen, DeepSeek, Ollama 등
  • 지식 그래프: Neo4j (선택 사항)

설치 참고: https://github.com/Tencent/WeKnora


12/22/2025

DevOps의 한계와 대안 탐색

약 15년전 등장한 DevOps는 철학이 매우 좋았습니다. 자동화, 지속적 통합(CI), 지속적 배포(CD)는 마치 모든 것을 해결해 줄 것처럼 여겨졌습니다. 하지만, 요즘은 DevOps는 실패했다. 혹은 DevOps는 허구다. 라는 냉소적인 목소리가 나오고 있습니다. 무엇이 잘못되었을까요?

DevOps의 본질은 “문화”와 “협업”이었지 “직무”가 아니었습니다. DevOps는 개발자에게 “코딩부터 배포, 모니터링, 운영”까지 직접하라고 요구합니다. 그러나 이는 인간의 인지 능력을 너무 높게 평가한 것 같습니다. 이유는 Full-stack을 넘어 Full-lifecycle을 요구받는 형태이고 이는 결국 개발 생산성 저하와 번아웃으로 이어질 수 있습니다.

비즈니스의 목적은 “가치 전달”이지 “파이프라인 구축”이 아닙니다. 실용적인 플랫폼을 지향해야 함에도, 필요 이상으로 복잡한 시스템을 구축하며 이를 “DevOps”의 성과라고 착각할 수 있습니다. 고객에게 필요한 기능을 하나 더 만드는 것보다, K8S 클러스터를 얼마나 더 세련되게 구축하느냐에 집중되는 우려가 있을 수 있습니다.

그렇다고 DevOps는 나쁜 개념은 아닙니다. 모든 상황에 적합하지 않을 뿐입니다. 현대적인 DevOps 도구를 적용하기 힘든 오래된 시스템에 억지로 DevOps를 도입하려다가 문제가 발생할 수 있습니다. 그리고 아주 작은 스타트업이나 제품일 경우에는 복잡한 CI/CD 환경을 구축하는 것보다 단순한 배포가 비용 대비 훨씬 효율적일 수 도 있습니다.

위에서 언급한 한계를 극복하기 위해 요즘은 “플랫폼 엔지니어링”이 언급되고 있습니다. 쉽게 말해서 개발자가 인프라 걱정 없이 코드에만 집중할 수 있도록 편의 시설이 다 갖춰진 맞춤형 작업 공간을 만들어주는 일이라고 이해하면 됩니다.

현 Cloud 서비스는 강력함과 복잡함을 지니고 있습니다. 또한 범용 도구라 회사 보안 규정이나 배포 방식을 모릅니다. IDP는 회사 내부 정책을 미리 심어둡니다. 또한 Cloud는 실수를 하여 자원을 삭제할 가능성이 있지만, 잘 설계된 IDP는 안전한 범위내에서 활동하도록 제공됩니다.

DevOps와의 차이점은 아래와 같습니다.

1. 플랫폼을 “제품(Product)”로 인지

플랫폼 엔지니어는 단순히 도구를 설치하는 사람이 아닙니다. 내부 개발자를 “고객”으로 생각하고, 그들이 겪는 불편함을 해결해주는 제품을 만듭니다. 이를 위해 개발자들의 피드백을 받고 지속적으로 개선하지요.

2. 셀프 서비스 기반

개발자가 서버 리소스가 필요할때마다 요청을 보내고 기다릴 필요가 없습니다. 플랫폼에 접속해서 직접 생성하면 됩니다.

3. Golden Path 제공

모든것을 자유롭게 하세요. 라는 것은 막막할 수 있습니다. 플랫폼 엔지니어링은 현 조직에서 가장 안전하고 효율적이라고 검증된 표준경로를 제공합니다. 개발자는 이 길만 따라가면 보안, 성능 걱정없이 배포할 수 있습니다.

플랫폼 엔지니어링을 보면 Cloud와 같은 것 아냐? 라고 생각할 수 있습니다. 차이가 좀 있는데, Cloud는 원재료를 파는 거대한 마트라면, 내부 개발자 플랫폼(IDP)는 그 재료들을 모아 우리 회사 입맛에 맞게 만든 밀키트라고 보시면 됩니다. 그래서 손이 덜 가는 것이겠죠.

결론적으로 DevOps는 사라지지 않았습니다. 다만, 우리가 가졌던 “환상”은 어느정도 사라져야 합니다. 현재 시점은 개발자에게 모든 부담을 주는 대신, 개발자가 편하게 배포할 수 있는 플랫폼 엔지니어링으로 나아가고 있습니다. 중요한 것은 “어떤 도구를 쓰는가?” 가 아니라 “우리 조직이 고객에게 가치를 전달하는데 무엇이 병목인가?”를 객관적으로 직시하는 실용주의 태도라고 생각합니다.

즉, 개발자가 모든 것을 알아야 한다는 상황에서 개발자가 가치를 만드는데 방해되는 병목을 제거한다로 진화하고 있다고 생각합니다.



12/07/2025

DX가 먼저인가? AX가 먼저인가?


AI의 시대에 살고 있습니다. 그래서 요즘 “AI 우선”이라는 말이 유행처럼 번지고 있습니다. 일각에서는 “DX의 시대는 끝났다”고 얘기하기도 합니다. 그러나 현실은 복잡하고 이는 위험한 오해라고 생각합니다. 기존 시스템을 보유한 기업일 경우, 지속 가능한 가치를 창출하기 위해서는 DX가 AX보다 선행되어야 합니다. 반대로 이미 디지털 네이티브 기업이라면 AI가 선도할 수 있습니다. 왜 이 순서가 중요한지 적어보도록 할께요.

왜 디지털 전환이 선행되어야 할까?

2023년 생성형 AI의 폭발적 성장 이후, 2025년 말인 지금까지 화두는 단연 “AI” 였지요. 그래서 이 과정에서 위험한 담론이 형성되지 않았나 생각됩니다. DX가 정말 낡은 개념일까요? 그럴 수 있다고 봅니다. 경영진들은 클라우드 마이그레이션이나 데이터 표준화 같은 지루한 과제보다, 당장 눈에 보이는 챗봇과 자동화툴을 원할 수 있지요.

우선, DX와 AX의 관계를 명확히 정의해야 한다고 생각합니다. 이 글을 읽고 계신 분들은 이 두개념이 대체 관계로 보이나요? 저는 상호 보완적인 관계라고 생각합니다.

DX는 아날로그 정보를 디지털 데이터로 변환하고, 파편화된 시스템을 클라우드로 연결하는 과정입니다. 이는 “신경망”을 까는 작업이고, 인간이 하는 일을 더 빠르게 처리하고, 데이터의 흐름을 투명하게 만드는 것이 목표입니다. 즉, DX는 “바닥”을 다지는 작업이라고 생각합니다.

AX는 DX가 만들어낸 데이터 위에서 작동합니다. DX가 “과거와 현재의 데이터를 보여주는 것”이라면, AX는 “그 데이터를 기반으로 미래를 예측하고 스스로 판단하는 것”이지요. 이는 “천장”을 뚫고 나가는 혁신이라고 생각합니다.

혹시, “쓰레기를 넣으면 쓰레기가 나온다.” 라는 말 들어보셨을까요? AI의 연료는 데이터인데, 지금 기업의 대부분 데이터는 엑셀 파일, 종이 문서, 혹은 서로 호환되지 않는 ERP에 갇혀 있지요. 이런 이유에서라도 DX가 선행되어야 합니다. DX를 통해 데이터가 정제 되고 표준화되어 Data Lake에 모이지 않는다면, 아무리 뛰어난 AI 모델을 도입해도 학습할 데이터가 있을까요? 구형 프로세스에 AI를 얹었다고 해서 비효율이 효율적으로 자동화 될까요?

데이터를 한곳에 모아서 정제하려면 가장 먼저 해야 하는게 부서간의 장벽을 허무는 것이지요. 영업팀의 데이터와 마케팅팀의 데이터가 따로 놀지 않고, 한곳에 모이고 정제 되어야… 즉, DX가 선행되어야 AI 데이터 전체를 꿰뚫는 통찰을 제공할 수 있겠죠.

왜 실패할까?

여기저기서 얘기하는 것을 보면, AX 도입에 실패한 곳이 많다고 하던데., 왜 실패할까요? “기술의 함정”에 있지 않나 생각됩니다. “2025년 과학기술산업화 포럼”에서 발표한 내용과 비슷하지만, DX를 단순히 슬랙을 사용하고, 줌을 이용하고, 챗GPT를 구독하는 것으로 착각할 수 있습니다. 근데 명확히 이것은 “디지털화”이지 “DX”는 아닙니다. 일하는 방식과 문화 그리고 데이터가 정제되지 않은 채 도구만 바꾸는 것은 마차에다가 비행기 엔진을 다는 격입니다. 마차는 결국 부서지겠지요.

AI 도입은 필연적으로 업무의 변화를 가져다줍니다. 그러나 “디지털 기술로 일하는 문화”가 정착되지 않은 곳에서는 저항감을 느낄 수 있습니다. 데이터를 입력하고 활용하는데 익숙치 않다면 고도화된 AI 도구는 방치될 가능성이 높지요.

그럼 어떻게 해야 할까?

우선, 자기 객관화를 해야겠죠? 첫째, 본인이 속한 곳의 데이터 인프라를 재점검해야 합니다. 예를 들어 이런것들입니다.

  • 우리의 데이터는 AI가 읽을 수 있는 형태(Machine-readable)인가?
  • 데이터가 실시간으로 통합되고 있나?

위 질문에 “Yes”라고 답할 수 없다면, AX는 멈추고 DX를 가동해야 합니다.

둘째, 프로세스를 표준화해야 합니다.

  • 아날로그 프로세스를 그대로 두었나?
  • 업무 프로세스를 디지털 환경에 맞게 간소화하고 AI가 이해할 수 있도록 표준화하는 BPR(Business Process Reengineering)이 선행되어야 합니다.

셋째, 이제 전환해야죠.

  • 단단해진 DX 기반 위에 AX를 도입합니다.
  • 중요한 것은, 단순 반복 업무를 대체하는 것을 넘어, 수집한 데이터를 분석하여 새로운 비즈니스 인사이트를 창출하는 파트너가 되어야 합니다.

결론

지인이 링크드인에 올린 글을 보고 이 글을 쓰게 되었습니다.

준비가 안되어 있다면, “기본으로 돌아가야 합니다.”

AX는 매력적입니다. 그런데 DX라는 뿌리 없이 피어난 AX는 금방 시들 수 있어요. 지금 필요한 것은 유행을 쫒는 조급함보다는 디지털화 되어 있는지 되돌아보는 냉철함일 수 있습니다. DX는 구시대의 유물이 아닙니다. 앞으로 다가올 AI 시대를 열어줄 가장 강력한 버팀목이라고 생각합니다. DX가 완성되는 그 지점이, AX가 시작되는 출발선이겠죠.

참고:

12/03/2025

Mistral 3

오늘 Mistral에서 4가지 새로운 모델을 출시했습니다. "Ministral" 소형 모델 시리즈(14B, 8B, 3B) 3가지와 매개변수 675B, 유효 매개변수 41B를 갖춘 Mistral Large 3 모델입니다.

위에서 언급한 모든 모델은 Vision이 가능하고, 라이센스는 Apache 2.0 입니다.

특히 3B 모델은 약 3GB 정도의 작은 파일에 담긴 Vision 기능을 갖추고 있습니다. (이거에 기대가 커요)

https://huggingface.co/spaces/mistralai/Ministral_3B_WebGPU 에서 브라우저로 테스트 해볼 수 있습니다. WebGPU를 통해 실행할 수 있을 정도입니다.


위 데모는 3GB 모델을 가져온 후, 웹캠 영상을 스트리밍하여 모델이 보고 있는 영상에 대해 텍스트 프롬프트를 실행할 수 있습니다.

꽤 괜찮네요 :)





12/02/2025

실리콘밸리가 말하는 엔지니어링 매니지먼트의 종말과 진실

2025년 현재, 불과 몇 년 전까지만 해도 개발자를 모셔가기 위해 사이닝 보너스와 최고의 복지를 내세우던 “채용 전쟁”은 옛 이야기가 되었습니다. 많은 이들이 “경기가 안 좋아서”라고 막연하게 말합니다. 하지만 우연히 읽게된 글에서 본 실리콘밸리의 생각은 다릅니다. 그들은 이것이 단순한 불황이 아니라, 지난 10년간 우리가 믿어왔던 “경영의 표준”이 완전히 바뀌는 패러다임의 전환이라고 말합니다.

우버(Uber)와 스트라이프(Stripe)를 거쳐 현재 Imprint의 CTO로 있는 윌 라슨(Will Larson)은 “우리가 알던 좋은 엔지니어링 매니지먼트”는 사실 일시적인 유행이었다고 언급합니다.

도대체 “좋은 관리”가 유행이었다니 무슨 뜻일까요? 사람을 존중하고 성장시키는 것이 잘못되었다는 것일까요? 이 글은 불편한 진실을 파헤치고, 거품이 꺼진 시대에 IT 조직이 나아가야 할 길을 고민해봅니다.


왜 “착한 관리자”에 열광했나?

2010년 부터 2021년까지의 시기는 “제로 금리”의 시기 입니다. 시장에 돈이 넘쳐났고, 투자자들은 당장의 이익보다 미래의 성장에 베팅했습니다. 기업의 가치는 “얼마나 돈을 버느냐”가 아니라 “얼마나 많은 사용자와 개발자를 보유했느냐”로 평가받았습니다. 이 시기에 가장 희소하고 비싼 자원은 바로 소프트웨어 개발자였습니다.

개발자 한 명을 채용하는데 드는 비용과 시간은 매우 비쌌습니다. 따라서 기업 입장에서 최우선 과제는 “채용”과 “유지” 였습니다. 이런 상황에서 매니지먼트의 역할이 재정의되었습니다. 과거에는 기술적 판단을 내리고 업무를 지시했다면, 팀원이 떠나지 않게 멘탈을 케어하고, 갈등을 중재하며, 커리어 성장을 돕는 리더로 변화되었습니다.

이 시기 실리콘밸리에서는 “매니저는 코드를 짜지 말라”는 조언이 정설처럼 받아들여졌습니다. 매니저가 코드를 짜면 팀원들의 성장을 방해한다는 논리였습니다. 대신 매니저는 one on one, 팀 빌딩, 채용 인터뷰, 문화 조성 등 “비기술적 업무”에 몰두했습니다.

우리는 이것을 “선진적인 실리콘밸리 문화”라고 받아들였습니다. 그러나 윌 라슨은 “그것은 인간적인 경영이어서가 아니라, 돈이 너무 많아서 비효율을 감당할 수 있었던 시기의 사치스러운 최적화였다.” 고 냉정하게 말합니다.


효율성의 역습과 관리자의 위기

2022년 인플레이션을 잡기 위해 금리가 오르며 “공짜 돈”의 시대는 막을 내렸습니다. 자본 조달 비용이 비싸지자 투자자들의 질문이 변경되었습니다. “다음에 얼마나 성장해?”, “지금 얼마나 벌고 있어?” 이런 상황의 변화는 기업 내부의 “비효율”을 정조준했습니다.

빅테크 기업들의 대규모 해고가 시작되면서 개발자 공급 부족 현상이 완화되었습니다. 회사는 더 이상 개발자의 기분을 맞추기 위해 과도한 비용을 지출할 필요가 없어졌습니다. “무조건적인 유지”가 내려오자, “사람만 관리하는 매니저”의 입지가 흔들리기 시작했습니다.

메타는 “매니저를 관리하는 매니저는 필요 없다.”고 선포하고 관리자 층을 대폭 없앴습니다. 보고 라인이 길어질수록 의사결정은 느려지고, 정보는 왜곡됩니다. 무엇보다 “직접 제품을 만들지 않는 계층”이 너무 비대해졌다는 판단이었습니다.

윌 라슨은 이 현상을 보며 “순수한 피플 매니지먼트의 시대는 끝났다.”고 선언합니다. 기술을 모르고, 제품에 직접 기여하지 않으면서, 프로세스와 사람만 관리하는 역할은 이제 회사에 짐이 될 뿐입니다.


좋은 매니지먼트는 왜 유행 취급을 받는가?

오해하지 말아야 할 것이 있습니다. 윌 라슨의 주장은 “직원을 막 대해도 된다”거나 “복지가 필요 없다”는 뜻이 아닙니다. 핵심은 “비즈니스 임팩트와의 괴리”입니다.

지난 10년간 매니지먼트는 지나치게 추상화되었습니다. 많은 리더들이 다음과 같은 업무를 자신의 주업무로 여겼습니다.

  • 심리적 안정감 조성
  • 팀원 간의 관계 조율
  • 복잡한 채용 프로세스 설계
  • 추상적인 커리어 코칭

위에 언급한 것은 중요합니다. 그러나 회사가 위기일 때, 이런 업무들은 “매출에 얼마나 기여했어?”라는 질문에 답하지 못합니다. 성과와 무관한 “좋은 분위기 조성”이기 때문입니다.

많은 리더들이 “피플 매니지먼트”를 핑계로 기술 학습을 멈췄습니다. “나는 리더니까 코드는 몰라도 돼. 팀원들이 전문가니까” 이런 태도는 저금리 시대에는 “위임”이라는 미덕으로 포장되었지만, 지금은 “직무 유기”로 간주됩니다. 기술적인 난제를 이해하지 못하는 리더는 올바른 의사결정을 내릴 수 없고, 결국 팀의 속도를 늦추는 병목이 됩니다.


다시 “테크니컬 리더”의 시대로

2024년 이후, 살아남는 리더와 조직은 어떤 모습일까요? 미래의 모델은 과거의 모델과 닮아 있습니다.

이제 리더도 다시 엔지니어 역량이 있어야 합니다. 팀원들의 코드를 읽고 이해할 수 있어야 합니다. 시스템의 구조적인 문제를 파악하고 기술적 부채를 관리하며 아키텍처 설계가 가능해야 합니다. 또한 필요하다면 직접 문제를 해결할 수 있는 “선수 겸 코치”가 되어야 합니다. Airbnb의 CEO인 브라이언 체스키도 “리더들이 다시 실무로 돌아와야 한다”고 강조했습니다.

우리 팀원들이 얼마나 열심히 했는가, 얼마나 문화를 잘 지켰는가는 이제 2순위입니다. 1순위는 우리가 만든 제품이 비즈니스 문제를 해결했는가입니다. 팀원의 성장은 리더가 떠먹여 주는 것이 아니라, 비즈니스의 어려운 문제를 해결하는 과정에서 스스로 쟁취하는 것이라는 인식이 다시 자리 잡고 있습니다.

팀장 위에 A, A위에 B라는 옥상옥 구조는 사라지고 있습니다. 리더 한 명이 관리하는 인원은 늘어나되, 조직의 깊이는 얕아지고 있습니다. 이는 정보 전달의 왜곡을 줄이고, 실무자와 의사결정자 사이의 거리를 좁히기 위함입니다.


결론

이 거대한 흐름은 태평양 건너 미국만의 이야기가 아닙니다. 한국도 이미 “효율화” 모드에 돌입했습니다. 우리는 어떻게 대비해야 할까요?

경영진 분들은 가짜 일을 걷어내야 합니다. 무조건적인 실리콘밸리식 수평 문화나 복지 중심의 관리를 맹목적으로 좇던 시기는 지났습니다. 회사의 관리자들이 실무와 연계되어 있는지 점검하고 팀 케어보다 기술적 리더십과 비즈니스 기여를 요구해야 합니다. 또한 조직을 얕게 만들어 리더들이 현장 목소리를 직접 듣게 해야 합니다.

리더들은 기술적 권위를 회복해야 합니다. 현실을 직시하고 “나는 사람 관리가 전문이야”라는 말을 하지 말아야 합니다. 다시 기술을 봐야 하고, 제품의 디테일을 집요하게 파고들어야 합니다. 그거 아세요? 팀원을 보호하는 가장 좋은 방법은 “따뜻한 위로”가 아니라 “우리 팀이 회사에 없어서는 안 될 존재임을 성과로 증명하여 그들의 월급을 지켜주는 것”입니다.

엔지니어분들은 비즈니스를 이해해야 합니다. 좋은 리더란 “나를 편하게 해주는 사람”이 아니라, “명확한 방향을 제시하고 장애물을 치워주는 사람”입니다. 리더에게 정서적 케어를 요구하기 보다는 “비즈니스의 우선순위”를 명확히 요구하세요. 그리고 기술적 우아함보다 비즈니스 가치를 먼저 생각하세요. 스스로의 가치를 “코드 퀄리티”가 아닌 “문제 해결 능력”으로 증명해야 합니다.

“좋은 엔지니어링 매니지먼트”가 유행했다는 말은 “거품 낀 관리”가 유행이었다는 의미입니다. 진정한 의미의 “좋은 관리”는 사라지지 않습니다. 다만, 그 정의가 “사람 좋은 리더”에서 “유능한 리더”로 무게중심이 이동했을 뿐입니다.

지금 당신의 조직은, 그리고 당신은 이 변화를 받아들일 준비가 되었나요?


참고

11/29/2025

AI가 읽는 제품과 서비스를 설계


지난 30년 동안 웹의 역사는 인간을 위한 설계, 즉 “사용자 경험(UX)”의 역사였습니다. 1990년대의 투박한 텍스트 기반 인터페이스에서 매끄러운 모바일 터치 인터페이스에 이르기까지, 기술적 진보의 중심은 “인간의 눈과 손”이었습니다. 그러나 2025년 현재 우리는 또 다른 거대한 전환점에 서 있습니다. 바로 AI 에이전트가 웹의 새로운 주요 사용자로 등장한 것입니다.

본 글은 짐 닐슨(Jim Nielsen), 마르타 페르난데스(Marta Fernandez), 마티아스 빌만(Mathias Bilmann)등 업계의 선구적인 사람들이 제기한 통찰을 바탕으로 작성되었습니다.

본 글에서 이야기하는 AX는 AI Transformation이 아닙니다. Agent Experience인 점을 기억해주세요.

AX(Agent Experience, AX)는 단순한 기술적 유행어가 아닙니다. 이는 웹의 본질을 “인간이 보는 공간”에서 “기계가 이해하고 행동하는 공간”으로 확장하는 구조의 변화입니다.

AX는 “AI 에이전트가 제품이나 플랫폼의 사용자로서 갖게 되는 전체적인 경험”이라고 정의되며, 이것이 향후 소프트웨어 산업의 핵심 경쟁력이 될 것이라 생각합니다. “AI에 의해 구동되는 인간 중심의 경험”으로 확장될 것이며, 알고리즘의 능력을 윤리적이고 이해 가능한 행동으로 번역하는 디자인이 중요해질 것입니다.

본 글에서는 AX의 정의와 필요성, 기술적 구현 방식 그리고 비즈니스와 웹의 미래에 미칠 영향을 포괄적으로 다룹니다.


AX의 정의와 패러다임의 전환

UX에서 AX로: 설계 단위의 변화

전통적인 UX 디자인은 인간의 인지적 한계와 심리적 만족을 최우선으로 고려했습니다. 버튼의 위치, 크기, 색상 그리고 직관적인 루트는 모두 인간의 시각적 처리를 돕기 위한 장치였습니다. 그러나 AI 에이전트에게는 이러한 시각적 요소는 오히려 정보 처리를 방해하는 소음이 됩니다.

마르타 페르난데스는 UX에서 AX로의 전환을 “설계 단위(Design Unit)”의 근본적인 변화라고 설명합니다.

<UX와 AX의 구조적 차이>

구분UX (사용자 경험)AX (에이전트 경험)
주요 사용자인간AI Agent
입력 방식시각, 터치, 음성텍스트, API, 데이터
설계 단위페이지, 화면, 선형적 흐름에이전트, 행동, 확률적 결정
핵심 목표만족도, 체류 시간, 시각적 즐거움성공률, 토큰 효율성, 자율성
예측 가능성정의된 상태가변적이고 설명 가능한 결과
오류 처리시각적 피드백자가 수정, 로그 기록

위 표가 시사하는 바는 인간을 체류시키기 위한 “몰입형 디자인”에서, 기계가 신속하게 목표를 달성하게 돕는 “효율성 디자인”으로의 이동입니다. 에이전트는 웹사이트의 아름다움에 감탄하지 않습니다. 목표 달성을 위한 데이터의 명확성과 구조적 논리성을 요구합니다. 따라서 AX 디자인은 화려한 그래픽을 걷어내고, 정보의 뼈대를 드러내는 작업과 같습니다.


새로운 페르소나

Netify CEO 마티아스 빌만은 소프트웨어 기업들이 제품을 개발할 때, AI 에이전트를 마케팅 담당자나 개발자처럼 하나의 구체적인 페르소나로 취급해야 한다고 주장합니다.

  1. 목표 지향적: 에이전트는 심심풀이로 웹 서핑을 하지 않습니다. 명확한 목적을 가지고 접근 합니다.
  2. 확률적 추론: 전통적인 프로그램과 달리, LLM기반 에이전트는 매번 동일한 경로로 움직이지 않을 수 있습니다. AX는 이런 불확실성을 수용하고, 에이전트가 길을 잃지 않도록 “가드레일”을 제공해야 합니다.
  3. 고도의 문자주의: 에이전트는 문맥 파악 능력은 뛰어나지만, 숨겨진 UI 요소나 암묵적인 관습보다 명시적인 텍스트를 선호합니다.


오픈 웹과 AX 철학

AX는 단순히 기업의 효율성을 높이는 도구를 넘어, 오픈 웹의 생존과 직결된 문제일 수 있습니다. 만약 특정 거대 기업들만이 독점적인 제휴를 통해 서비스들을 연결한다면, 웹은 소수를 위한 닫힌 공간으로 전략할 것입니다.

반면, 개별 웹사이트와 서비스들이 표준화된 AX(e.g. API, llms.txt)를 제공한다면, 에이전트가 자유롭게 웹을 탐색하고 상호작용할 수 있는 “오픈 에이전트 생태계”가 가능해집니다. 이는 짐 닐슨과 같은 웹 표준 옹호자들이 오랫동안 주장해 온 “누구나 접근 가능한 하이퍼텍스트로서의 웹” 이라는 철학과 매핑됩니다.


AX의 기술적 아키텍처와 구현

AX를 성공적으로 지원하기 위해서는 기존의 웹 개발 방식과는 다른 기술적 접근이 필요합니다. 핵심은 “기계 가독성”을 극대화 하는 것입니다.


llms.txt: 에이전트를 위한 지도

llms.txt에 대해서는 이전 글에 작성했으니, 참고해주세요.


API: 에이전트의 손과 발

AX의 세계에서 GUI(Graphic User Interface)는 보조적인 수단입니다. 에이전트에게 가장 강력한 인터페이스는 API(Application Programming Language) 입니다. 그 이유는 아래와 같습니다.

  • 자기 기술적 API: 에이전트가 사람의 개입 없이 도구를 사용하려면, API 명세서가 기계가 읽을 수 있는 형태로 완벽하게 제공되어야 합니다. 에이전트는 이 명세서를 메뉴얼처럼 읽고, 스스로 요청을 구성해야 합니다.
  • 예측 가능성: 에이전트 경험을 저해하는 가장 큰 요소는 “예기치 않는 변경” 입니다. API 응답 형식이 예고 없이 변경되면 에이전트의 논리 회로는 어려움을 겪습니다. 이는 개발자도 마찬가지죠 🙂 따라서 AX는 엄격한 버전 관리와 명확한 오류 메시지를 요구합니다.
  • 세밀한 권한 관리: 인간 사용자와 달리 에이전트는 수백 번의 작업을 순식간에 수행할 수 있습니다. 따라서 Read, Create 등 매우 세분화된 API 권한 관리가 필수적입니다.

토큰 경제학과 효율성

AX 디자인의 핵심 제약 조건은 “컨텍스트 윈도우” 입니다. AI 모델이 한 번에 기억할 수 있는 정보의 양은 제한적이며, 긴 텍스트를 처리할수록 비용과 시간이 증가합니다. 즉, 훌륭한 AX는 “최소한의 토큰으로 최대의 의미”를 전달하는 것입니다.

에이전트에게 5MB 사이즈의 자바스크립트가 포함된 페이지를 던져주는 것과 핵심 정보만 담긴 5KB 사이즈의 JSON이나 마크다운 요약을 제공하는 것 중 어떤 것이 좋은 AX일까요?


인간 중심의 기계 설계

AX가 기계를 위한 설계라 해도, 그 최종 목적은 인간을 돕는 것입니다. AX가 단순하게 자동화하는 것이 아니라 신뢰, 투명성 그리고 사용자 주체성을 위한 설계가 되어야 합니다.

사용자가 에이전트에게 “제주도행 항공권을 예매해줘” 라고 지시했을 때, 사용자는 에이전트가 자신의 의도대로 행동할 것이라고 믿어야 합니다. 이 신뢰를 구축하는 것이 AX의 핵심 과제입니다.

신뢰를 구축하려면 과정이 투명해야 합니다. 에이전트가 결과를 내놓기 전에 “당신의 요청에 따라 A 항공사와 B 항공사를 비교 중입니다.” 와 같은 중간 과정을 로그나 요약 형태로 보여주어야 합니다. 또한 결제 단계와 같은 중요한 스텝에 도달 했을 때에는 인간이 이를 검토하고 승인하거나 취소할 수 있는 명확한 인터페이스를 제공해야 합니다.

우리가 이제까지 알아왔던 UX에서 브랜드의 성격이 시각적 톤앤매너로 표현된다면, AX에서는 행동(Behavior)으로 표현됩니다. 예를 들어서 금융 서비스 에이전트는 매우 보수적이고 확인을 자주하는 Behavior로 설계해야 합니다. 이런 행동 양식을 부여하는 것이 사용자 경험의 일관성을 유지하는데 매우 중요합니다.


비즈니스 전략으로서의 AX와 미래 전망

AX는 단순한 개발 트렌드가 아닙니다. 조직의 이름 혹은 회사명을 변경한다고 AX를 한다고 할 순 없습니다. 이는 기업의 생존을 결정할 비즈니스 전략으로 바라봐야 합니다.

마티아스 빌만은 “LLM이 사용하기 어려운 도구는 도태될 것”이라고 단언합니다. 왜 이런 얘기를 할까요?

예를 들어, 두 개의 프로젝트 관리 도구가 있다고 가정해 봅시다. 도구 A는 화려한 Drag & Drop 인터페이스를 가졌지만 API가 빈약하고, 도구 B는 인터페이스는 매우 투박하지만 강력하고 문서화된 API를 제공합니다. 기업들이 업무 자동화를 위해 AI 에이전트를 도입할 때, 에이전트는 어떤 도구를 선택할까요? 아마도 도구 B를 선택할 것입니다. 그 이유는 에이전트가 조작할 수 없는 소프트웨어는 자동화된 워크플로우에서 배제되기 때문입니다. 즉, AX가 뛰어난 제품이 시장 우위를 점하게 됩니다.

검색 엔진 최적화(SEO)의 시대가 저물고, 에이전트 최적화(AEO)의 시대가 오고 있습니다. 이제 기업은 구글 검색 결과 1페이지에 오르는 것뿐만 아니라, ChatGPT나 PErplexity와 같은 답변 엔진이 자사의 정보를 인용하도록 만들어야 하기에 아래의 사항들이 중요해집니다.

  • 구조화된 데이터의 중요성: Schema.org를 통해 가격, 재고, 리뷰 평점을 명확하게 명시해야 에이전트가 신뢰할 수 있는 데이터로 인식합니다.
  • 에이전트 커머스: 2026년까지 상당수의 전자상거래가 인간의 직접 클릭이 아닌, 에이전트의 대리 수행으로 이루어질 것으로 예측됩니다. “가장 싼 방을 예약해줘”라는 지시를 수행하는 에이전트에게 선택받으려면, 에이전트가 즉시 접속 가능한 API와 정확한 실시간 데이터를 제공해야 합니다.

아마도 웹은 “인간이 소비하는 미디어 웹”과 “에이전트가 일하는 유틸리티 웹”으로 양분될 것입니다. 기업은 이 두 가지 웹을 동시에 만족시켜야 하는 과제에 직면하게 되지 않을까 합니다.


마무리

웹은 다시 한번 진화하고 있으며, 이번 진화의 주인공은 Agent라고 생각됩니다. 

이 바닥에서 일하는 우리들에게 AX는 선택이 아닌 필수입니다. 화려한 디자인 뒤에 가려진 정보의 장벽을 허물고, 에이전트가 자유롭게 드나들 수 있는 “약속된 문”을 만드는 것. 

이것이 AI 시대에 우리가 만드는 제품과 서비스가 살아남는 길이며, 인간과 AI가 공존하는 더 나은 디지털 세상을 만드는 방법이라 생각합니다. 

지금 당신이 만든 제품과 서비스는 Agent를 맞이할 준비가 되어 있습니까?


참고: