AI에 휘둘리지 않는 사람은 이렇게 묻는다: ChatGPT 프롬프트 10가지 비법

AI에 휘둘리지 않는 사람은 이렇게 묻는다: ChatGPT 프롬프트 10가지 비법

소개: ChatGPT는 "똑똑한"데 왜 실패할까

ChatGPT는 우리가 던진 말을 그대로 받아들여 "그럴듯한 최적의 해답"을 반환합니다. 이 점이 편리한 반면, 대충 물으면 대충 답이 돌아오는 것이 당연한데, 이 당연함이 의외로 간과되기 쉽습니다.


ZDNET의 기사가 전하는 것은 비법이라기보다는 "AI가 오해하지 않도록 하는 방법"입니다. 다시 말해, 인간의 부하에게 일을 맡길 때의 지시 방법과 비슷한 것입니다.


그리고 SNS의 반응을 봐도 "ChatGPT가 나쁜 게 아니라, 우리의 질문 방식이 나쁜 경우가 많다" "하지만 AI는 자신만만하게 틀릴 수도 있다"는 두 가지 목소리가 섞여 있습니다. 즉, “출력 품질을 높이는 기술”과 “사고를 방지하는 기술”의 세트가 필요하다는 이야기입니다.



1. 추상어를 버리고 "구체적"으로 대체하기

"좋은 느낌으로", "이해하기 쉽게", "그럴듯하게"—이런 종류의 말은 AI에게 너무 자유도가 높습니다.
구체화의 요령은 3가지입니다.

  • 목적: 무엇을 위해 사용하는 문장인가 (예: 사내 제안, SNS 게시물, 채용 면접)

  • 독자: 누구를 대상으로 하는가 (예: 초보자, 의사 결정자, 현장 담당자)

  • 기대 수준: 무엇이 "좋은" 것인가 (예: 결론 우선, 목록 형식, 근거 포함, 반론 포함)


:
× "마케팅 전략안을 내놔"
○ "BtoB SaaS의 무료 체험 등록을 늘리기. 예산 월 30만 엔, 기간 6주. 실행 절차와 KPI, 예상 리스크도 함께 5가지 안"



2. 전제 조건과 배경 정보를 "처음에" 제공하기

ChatGPT는 배경을 임의로 보완합니다. 보완이 맞으면 신, 틀리면 사고.
그래서 먼저 "세계관"을 고정합니다.

  • 현황 (무슨 일이 일어나고 있는가)

  • 제약 (시간, 예산, 규칙, 사용할 수 있는 수단)

  • 원하지 않는 것 (NG 예시나 지뢰)


배경을 늘릴수록 길어지지만, 결과적으로 다시 할 필요가 줄어들어 빨라진다는 것이 포인트입니다.



3. 출력 형식을 미리 지정하기

"기사로", "표로", "결론→이유→구체 예시로" 등, 형태를 지정하면 흔들림이 줄어듭니다.
특히 효과가 큰 것은 다음과 같은 지정입니다.

  • 제목 구성 (h2/h3 상당)

  • 목록의 수 (예: 각 항목 3개까지)

  • 글자 수 (예: 도입 200자, 각 절 400자)

  • 톤 (예: 경어체, 단정 강하게, SNS용)


형식이 정해지면, AI는 망설이지 않고 채워 나갈 수 있습니다.



4. 역할 (페르소나)을 부여하여 시점을 고정하기

"당신은 편집자", "당신은 정보 시스템 담당", "당신은 CFO" 등, 역할을 부여하면 정보 수집 방식, 단어 선택, 리스크 감도가 달라집니다.


요령은 "직함"뿐만 아니라, 경험 연수와 성과까지 지정하는 것입니다.

:
"당신은 SaaS 기업에서 10년, BtoB 마케팅을 담당하며, 리드 획득과 육성을 모두 관리해온 책임자입니다"



5. 제약 조건을 "명확히" 작성하기 (하지 않을 것도 포함)

제약은 품질을 낮추는 것이 아니라, 오히려 높입니다.
이유는 간단합니다. 제약이 없으면 AI가 "가장 넓은 정답"을 내놓기 때문입니다.

  • 사용 가능한 매체 (X, note, 프레스, YouTube 등)

  • 예산 상한

  • 사용할 수 없는 표현 (과장 광고, 단정, 의료 효능 등)

  • 법무·컴플라이언스 상의 주의


"링크는 본문에 넣지 않는다" 등의 규칙 지정도 여기에 포함하면 무너지기 어렵습니다.



6. 좋은 예·나쁜 예를 보여주고, 채점 기준을 공유하기

문장의 취향은 사람마다 다릅니다. AI는 "당신의 취향"을 추측할 수밖에 없습니다.
그래서 짧아도 좋으니 예를 주고 기준을 맞춥니다.

  • 좋은 예 (이 템포, 이 어휘, 이 밀도)

  • 나쁜 예 (이 표현은 싫다, 추상이 많은 것은 NG)


이는 실무에서 "참고 기사 이것" 같은 지시에 가깝습니다.



7. 한 번에 완성하지 말고, 과정을 나누어 "단계별로" 하게 하기

"먼저 구성안", "다음은 제목별 요점", "마지막으로 본문"—이 분할은 강력합니다.


AI는 완성품을 한 번에 만들려고 하면, 중간에 일관성이 무너지거나, 편리하게 이야기를 채우기도 합니다.


과정을 나누면, 검토 가능한 중간 산출물이 생기고, 수정도 쉬워집니다.



8. 먼저 질문하게 하여 (부족한 정보를 찾아내기)

은근히 효과적인 것이 이것입니다.


"답변하기 전에 필요한 질문을 해달라"고 말하기만 하면, AI가 불명확한 점을 나열합니다.
결과적으로, 우리도 요구 사항 정리가 가능해지고, “다시 물어보기 지옥”이 줄어듭니다.



9. 반복 개선 (리라이트 지시)을 전제로 하기

한 번에 완벽을 노리기보다는, "초안→수정"을 전제로 하는 것이 더 빠릅니다.
수정 지시는 다음의 형식이 편리합니다.

  • 어디가 싫은지 (추상, 길다, 약하다, 딱딱하다)

  • 어떻게 하고 싶은지 (구체화, 짧게, 강한 결론, 예를 추가)

  • 무엇을 남길지 (이 비유는 남기고, 구성은 유지)



10. 자기 검증하게 하기 (오류·누락·전제를 점검)

SNS에서도 특히 강조되는 것이 "AI는 그럴듯하게 거짓을 섞는다"는 문제입니다.
여기는 프롬프트로 상당히 개선할 수 있습니다.

  • "자신의 답변의 약점을 3가지 들어라"

  • "사실과 추측을 구분해라"

  • "전제가 무너지는 경우는?"

  • "불확실한 점은 불확실하다고 명기해라"


이 "셀프 감사"를 마지막에 넣기만 해도 위험한 단정이 줄어듭니다.



SNS의 반응: 칭찬과 경계가 함께 이야기됨

이번 ZDNET 기사가 SNS에서 공유되자, 반응은 크게 두 가지로 나뉘었습니다.

 


A. "결국, 프롬프트에 달렸다"파

Reddit에서는 AI의 답변 품질을 두고 "그것은 '질문 방식'이 나쁜 것 아닌가?"라는 취지의 반응이 있었고, 프롬프트 개선 기사에 대한 링크가 "근거"로 붙어 있었습니다. 즉, 잘 안 되는 경험이 있어도, 개선 여지는 사용자 측에도 있다는 온도감입니다.


B. "맹신은 위험, 검색과 병용이 필수"파

같은 스레드 내에서도, AI가 시스템을 망가뜨릴 수 있는 제안을 하거나, 환각으로 위험한 명령을 제시할 수 있다는 경계가 반복적으로 언급되었습니다. 결론적으로는 "AI 채팅 + 웹 검색 + 더블 체크"라는 운영이 현실적이라는 이야기로 귀결되고 있습니다.


C. LinkedIn에서는 "업무 기술"로 공유됨

LinkedIn에서는 ZDNET 기사를 "AI가 이야기를 지어낼 수 있는 전제 하에, 결과를 좋게 하기 위한 프롬프트 습관"으로 소개하는 게시물이 보였으며, 업무 활용의 맥락(효율화·품질 안정화)에서 확산되고 있었습니다.



요약: 10가지 요령은 "속도"보다 "다시 하기를 줄이는 기술"

ZDNET 기사가 말하는 "빠르고 좋은 결과"란, 타이핑을 짧게 하는 것이 아니라, 다시 하기 횟수를 줄이는 것입니다.
구체화하고, 전제를 제공하고, 형식을 지정하고, 과정을 나누고, 마지막에 자기 검증을 합니다. 이것만으로도 ChatGPT는 "편리한 장난감"에서 "실무에 견디는 동료"로 가까워집니다.


동시에, SNS가 보여주듯이, AI는 만능이 아닙니다.프롬프트로 똑똑해져도, 마지막에는 인간의 확인이 필요합니다. 이 전제를 잊지 않는 사람일수록, AI의 혜택을 크게 누리고 있는 것처럼 보입니다.


##