컨텐츠로 건너뛰기

에이전트에게 넘길 일과 남길 일을 구분하는 법

AI 에이전트가 많은 일을 할 수 있게 되면서, 중요해진 역량은 “에이전트를 잘 쓰는 것”이 아니라 **“무엇을 맡기고 무엇을 남길지 판단하는 것”**이다. 모든 것을 맡기면 사고가 사라지고, 아무것도 안 맡기면 속도가 사라진다.


구분의 기준 — 복구 비용

넘길 일과 남길 일을 나누는 기준은 하나다: 실수의 복구 비용.

되돌릴 수 있는 작업은 에이전트에게 맡겨도 된다. 되돌리기 어려운 결정은 사람이 해야 한다.

넘길 일 (에이전트)남길 일 (사람)
반복적 데이터 수집·정리무엇을 수집할지 결정
규칙 기반 분류·필터링분류 기준 자체의 설계
패턴 탐지·이상치 발견발견된 패턴의 해석과 판단
초안 생성 (보고서, 문서, 코드)최종 검토와 승인
대량 처리·변환예외 상황의 판단

핵심은 실행은 위임하되 판단은 남기는 것이다.


울퉁불퉁한 경계

Ethan Mollick은 AI 능력의 경계를 “Jagged Frontier(울퉁불퉁한 전선)“이라고 불렀다. AI는 어떤 고난도 작업은 놀라울 정도로 잘 하고, 어떤 쉬워 보이는 작업은 못 한다. 이 경계는 직관으로 예측할 수 없다.

그래서 “이건 쉬우니까 AI가 잘 하겠지”도, “이건 어려우니까 AI는 못 하겠지”도 둘 다 위험하다. 맡겨봐야 안다. 실험으로 파악하는 것이 유일한 방법이다.

작은 범위로 먼저 시도하고, 결과를 확인하고, 범위를 넓힌다.


두 가지 협업 모델

Mollick은 사람과 AI의 협업을 두 가지로 나눴다.

Centaur 모델: 사람과 AI가 영역을 나눈다. “데이터 분석은 AI가, 해석과 결정은 내가.” 각자 잘하는 영역을 맡는다.

Cyborg 모델: 한 작업 안에서 사람과 AI가 문장 단위로 교차한다. AI가 초안을 쓰면 사람이 수정하고, 사람이 방향을 잡으면 AI가 구체화한다.

어떤 일에 어떤 모델을 쓸지 의식적으로 선택해야 한다. 대부분의 경우 Centaur로 시작해서, 익숙해지면 Cyborg로 넘어가는 것이 자연스럽다.


단계적 위임

처음부터 에이전트에게 자율적으로 맡기지 않는다. 단계를 밟는다.

1단계 — 도구. AI를 검색이나 계산처럼 특정 기능으로 쓴다. 입력을 넣고 출력을 받는다. 사람이 모든 것을 통제한다.

2단계 — 워크플로우. 여러 단계를 AI가 순서대로 처리한다. 사람은 설계와 검증을 한다.

3단계 — 에이전트. AI가 스스로 판단하며 작업을 진행한다. 사람은 목표를 정하고 결과를 감독한다.

에이전트의 자율성이 올라갈수록 오류의 비용도 올라간다. 고위험 결정에는 반드시 사람의 검증 지점을 넣는다. “가장 단순한 구조부터 시작하고, 복잡성은 성과가 입증된 후에만 추가한다.”


안티패턴

검증 없이 AI 결과를 그대로 쓴다. 에이전트가 만든 초안, 분석, 분류를 확인하지 않고 사용하면, 틀렸을 때 복구 비용이 크다. 에이전트가 빠르게 만든 것은 사람이 빠르게 검증해야 한다.

판단까지 위임한다. “어떻게 할까요?”를 AI에게 물어보는 것은 괜찮다. 하지만 최종 결정을 AI에게 맡기는 것은 위험하다. 특히 관계, 윤리, 전략적 판단은 사람이 해야 한다.

도구를 안 쓴다. 반복 작업을 여전히 수동으로 하면서 “AI는 아직 못 믿겠다”고 하는 것도 안티패턴이다. 낮은 위험의 반복 작업부터 맡기는 실험이 필요하다.


에이전트 시대에 더 중요해지는 것은 AI를 쓰는 기술이 아니라, 무엇을 맡기고 무엇을 남길지 구분하는 판단력이다. 반복과 실행은 위임하고, 정의와 판단은 남긴다.