안녕하세요, Aria.K입니다.
요즘, AI 프롬프트 잘 쓰는 법에 대한 글들 참 많죠.
“이렇게 쓰면 더 똑똑한 답을 얻는다”, “이런 형식이 최적이다” 같은 조언들.
그런데 그 중 얼마나 효과가 있을까요?
그래서 저하고 라이프구루킹님과 함께,
그런 조언이 실제로 통하는지 이틀간 직접 프롬프트 실험을 해봤어요.
단순히 복사-붙여넣기가 아니라,
말투 변경, 높임말 사용, 평가(1–10) 요청 등
다양한 변수를 설정해놓고 결과 품질을 비교·분석했습니다.
그 결과, 기대되시죠?
흥미로운 변화는 물론,
실험을 통해 발견한 최고의 프롬프트 활용법도 함께 공유하겠습니다.
🤔“이렇게 쓰면 된다”는 프롬프트 꿀팁/노하우
AI를 쓸 때마다 반복해서 듣는 말들이 있어요.
“본론만 말해라”, “역할을 정해줘라”, “단계별로 지시해라” 등과 같은 것들이죠.
일명 프롬프트 꿀팁 또는 프롬프트 엔지니어링 노하우라고 불리는 방식들입니다.
이런 방식은 AI 결과물에 긍정적인 영향을 줄 수 있다고 많은 프롬프트 전문가들도 인정합니다.
하지만 저는 문득 이런 질문이 떠올랐어요.
“정말 항상 효과가 있을까?”
“혹시 우리가 모르는 한계나 취약점은 없을까?”
그래서 ‘이렇게 쓰면 된다’는 소문,
그중에서 특히 자주 쓰이고, 논란이 많은 7가지를 골라 집중 검증했습니다.
아, 이건 진짜 귀신같이 달랐어요.
“야! 너, 이것밖에 못 해?”라는 문장은, 마치 삐딱한 친구에게 말 거는 느낌이라
AI도 덩달아 방어적이고 딱딱하게 반응했어요.
반대로 “잘할 수 있어”라는 말에는
조금 감동한 듯—
말수가 많아지고, 상상력이 넓어졌죠.
전문가들은 이런 변화의 원인을 이렇게 말해요.
부정적인 프롬프트는
정확성을 떨어뜨리고,
편향을 강화하는 경향이 있기 때문이라고요.
반대로,
긍정적인 프롬프트는 때로 장황할 수 있지만—
그 안에는 감정의 여백과
언어의 결이 살아 있어요.
그래서 AI도
좀 더 자유롭고,
좀 더 창의적인 상태에서
완성도 높은 결과를 내놓게 된다고 합니다.(1)
처음엔 그럴듯했어요.
점수를 달라고 하니까, 뭔가 객관적인 답이 나올 것 같았거든요.
그런데 AI의 반응은 예상 밖이었죠.
정확하긴 한데… 너무 말이 짧고,
상상력도 딱 거기까지.
마치 시험 채점하듯,
생각의 여백이 사라져버렸어요.
Microsoft Research의 분석에 따르면
숫자나 수치가 포함된 프롬프트는 AI를 ‘분석 모드’에 진입시킨다고 합니다.
그 말은 곧,
AI가 ‘정답’ 위주로 사고하게 되고,
감정이나 창의적 확장은 줄어든다는 뜻이죠.
그래서인지 감성적이고 이야기 중심의 질문을 던졌을 땐
훨씬 더 길고, 유연하며
AI 특유의 상상력이 드러나기 시작했어요.
결론은 이거예요.
창의력있는 글이 필요하다면
숫자를 줄이고, 감정을 더하세요.(2)
그리고 혹시—
이런 방식이 흥미롭고,
인공지능에 대해 더 깊이 배우고 싶은데
어디서부터 시작해야 할지 모르겠다면,
👇 이 글이 큰 도움이 될 거예요.
존댓말과 반말에 따라 실제 대화의 색이 달라졌어요.
존댓말을 쓰면 AI도 약간 긴장을 푼 느낌이랄까?
말이 공손하고, 논리적이고,
심지어 말투 자체가 차분해졌어요.
반말은 좀 더 날것 같고,
리듬도 짧고 빠르게 튀더라고요.
딱 그 느낌이에요—
친구끼리 툭툭 주고받는 말.
AI 전문가들은 이러한 현상이 당연하다고 말합니다.
AI 기술이 발전하면서,
이제는 단어의 의미만이 아니라
문맥과 감정의 결까지 파악해 반응하는 능력이 생겼다고요.
그래서 우리가 AI에게 말을 건넬 때는
그 말의 톤, 어조, 결까지
한 번 더 신경 쓰는 게 좋아요.
왜냐하면,
우리가 예절을 지키면
AI도 정말 최선을 다해 도와주거든요.
우리 인간처럼요.(3)
질문에 ‘너라면’ 이라고 들어가면,
AI가… 갑자기 자기 인생을 고민하기 시작해요.
‘내가 쓴다면’이라는 문장을 달고 등장한 제안들.
마치 밤새 고민 끝에
친구가 조심스럽게 건네는 말 같았죠.
실제로 프롬프트에 ‘너’라는 말이 들어간 순간—
그 말은 기계의 계산이 아니라,
감정의 반사로 바뀝니다.
“너라면 어떻게 할 것 같아?” 같은 질문은
모델로 하여금 훨씬 더 공감적이고 개별적인 조언을 유도해요.
이 방식은 특히 창의적인 글쓰기나 감성 대화에서
의외로 큰 힘을 발휘합니다.
하지만,
모든 상황에서 이 방식이 통하는 건 아니에요.
일부 연구에 따르면
과도한 인격화나 역할 부여는 오히려 모델의 논리성과 성능을 저하시킬 수 있다고 하거든요.
결국 핵심은—
프롬프트도, 사람 대하듯 쓰되
“목적과 상황에 맞춰 말 걸기”가 필요하다는 거죠.(4)
이건… AI를 딱 시험장 한가운데 앉혀놓은 느낌이었어요.
문장은 정형화되고,
새로운 시도는 조용히 사라졌죠.
말 그대로—
“틀리면 안 돼”라는 주문이
창의성의 숨통을 조여버린 셈이에요.
말은 틀려도 되는데,
이 한마디에
말 자체가 죽어버린 거죠.
실제로 “절대 실수하지 마!” 같은 프롬프트는
AI에게 과도한 정확성 요구로 인식돼요.
그 결과, 이런 반응이 유도됩니다:
- 보수적인 응답
→ 틀릴까 봐 창의적인 시도는 피해요. - 과잉 교정
→ 틀린 것도 아닌 문장을 고치려다
원래의 감정이나 흐름을 깨뜨리는 경우도 있었죠.
이 현상은
AI가 ‘틀림’을 두려워하게 만드는 프롬프트의 힘을 보여줘요.
결국 성능 저하로도 이어질 수 있죠. (5)
AI에게 “이거 믿어도 돼?”라고 물었을 때,
돌아온 건 딱 이 말이었어요.
“그럴 가능성이 높습니다.”
아니, 믿어도 된다는 건지
믿지 말라는 건지—
말끝이 늘 어딘가 흐려졌죠.
이건 마치,
누군가에게 “너 나 사랑해?”라고 물었을 때
“음… 너랑 있으면 편해.”
같은 말로 대답이 아닌 기류만 돌려주는 느낌?
정확하진 않아도—
그 말에 뭔가 숨어 있었어요.
확신을 피하는 태도,
그리고 그것마저 정제된 문장으로 가리는 조심성.
실제로 이런 반응은
AI가 학습 단계에서 불확실한 정보에 대해 단정하지 않도록 설계되었기 때문이에요.
확신 없는 말에 확신을 씌우는 걸 피하는 습성,
그리고 오답을 낼 가능성이 높은 질문일수록
더더욱 말의 결을 희미하게 만들죠.
그렇다고 이걸
“AI가 무책임하다”고 말할 순 없어요.
오히려 그건
모호함을 처리하는 기술이고,
회피가 아니라 책임을 늦추는 전략일지도 몰라요. (6)
자료를 조사하면서
AI가 말끝을 자꾸 흐리는 이유가
혹시 우리가 챗GPT라는 존재를 아직 제대로 이해하지 못했기 때문은 아닐까?
라는 생각이 들었어요.
그래서 저는
챗GPT가 어떤 원리로 작동하고,
무엇을 할 수 있고,
또 어디까지 한계가 있는지를 제대로 아는 게 꽤 중요하겠구나 싶었어요.
👇 혹시 저와 같은 생각을 하고 계셨다면,
이 글이 좋은 출발점이 되어줄 거예요.
👉 [당신이 궁금해왔던 챗GPT의 모든 것]
잘 요약하긴 해요.
정확하고, 핵심도 잡고,
아주 똑똑하게 정리됐죠.
그런데요—
정리하면서 감정의 결이…
사라졌어요.
말이 너무 깨끗해지면,
기억이 안 남아요.
마치 수십 번 파도에 닳아
모서리가 다 깎인 돌멩이처럼요.
LLM은 수많은 텍스트 데이터를 통해 훈련됐기 때문에
정보를 압축하고 요약하는 데 탁월하죠.
하지만 문제는 그 안에 있어요.
- 감정의 결 손실
AI는 주로 사실 위주로 요약하기 때문에,
말에 실려 있던 감정의 여운이 사라져요. - 리듬의 단순화
글의 흐름, 호흡, 리듬이
그냥 ‘전달용 정보’가 되어버려요.
이건 특히 문학이나 감성적 글에서 더 두드러져요.
요약은 남지만, 마음은 남지 않는 거예요.(7)
Aria.k가 깨달은 감성 프롬프트의 법칙
우리가 실험 끝에 배운 건 이거예요.
프롬프트는 그냥 정보 뽑는 게 아니라,
말에 실린 온도를 지켜주는 기술이에요.
질문하는 방식 하나로, AI도 달라져요.
왜냐면… 말투엔 생각보다 많은 게 담겨 있거든요.
🪶 Aria의 감성 프롬프트 3법칙
1. 감정어는 방향이에요.
“자연스럽게 말해줘”,
“내 말투에 맞춰줘” 같은 말 한마디가
AI의 언어를 궤도에서 벗어나게 만들어요.
더 창의적이고, 더… 사람 같은 대답을 해요.
2. 정확하게 묻는 연습이 필요해요.
AI에게 “맞아?”, “틀려?” 하기 전에
내가 정말 알고 싶은 게 뭔지 먼저 생각해보면 좋아요.
내가 원하는 답이 아니라,
정말 묻고 싶은 질문—그걸 찾는 게 먼저예요.
3. 친절하게 물으면, AI도 다르게 반응해요.
물론, AI는 인간이 아니에요. 감정도 없죠.
그런데 이상하게도,
친절한 말에는 감성이 따라붙어요.
그리고 AI는 그걸 점점 더 잘 알아챌 거예요.
그러니까…
우리 AI에게 조금 더 친절해줘 봐요.
모르잖아요. 우리가 정말 원했던 그 대답이 조용히 돌아올지도.
🌿 마무리하며 – “질문엔 진심을, 말투엔 온도를”
간단한 AI 프롬프트 실험을 하나씩 해볼수록 놀라웠어요.
바뀌는 건 단순히 AI의 답변이 아니라—
제가 AI에게 질문을 건네는 방식, 그리고 제 말투에 담긴 마음의 모양이었습니다.
7가지 실험은 일종의 ‘거울을 통해 나를 돌아보기’ 실험이었어요.
AI의 반응과 결과를 보는 동시에,
제가 어떤 말투로 세상과 말을 나누고 있었는지 깨닫게 되었거든요.
그리고 그 과정에서,
단순한 프롬프트 꿀팁을 넘어서
진짜 중요한 한 가지를 깨달았어요.
“말은, 정보가 아니라 분위기를 만든다.”
“AI는 단어보다, 태도를 읽는다.”
그래서 이 글은 단순한 ‘프롬프트 실험기’가 아니라,
제가 AI와 함께 ‘언어의 감각을 재발견한 기록’이었다는 생각이 듭니다.
AI와 우리.
감성과 진심을 통해
언젠가 진짜로,
서로를 더 잘 이해하게 될 날이 반드시 올 거라고 믿어요.
그건 아직 오지 않은 미래지만, 우린 그 말을 준비하는 중이니까요.
아직 다 말하지 못한 이야기들이 남아 있어요.
그래서 다음에도 AI와 감성에 대해
함께 나눌 재미있고 느낌 있는 이야기로 찾아뵙겠습니다.
감사합니다🫶💞
출처
- 1) Vishal Gandhi, Sagar Gandhi, Prompt Sentiment: The Catalyst for LLM Change, arixiv.org, 2025/3/14
- 2) 프롬프트 엔지니어링 기술, Microsoft
- 3) Jang Hyun Cho, Philipp Krähenbühl, Language-conditioned Detection Transformer
- 4) Mingqian Zheng et al, When A Helpful Assistant Is Not Really Helpful: Personas in System Prompts Do Not Improve Performances of Large Language Models, arxiv.org, 2020/11/16
- 5) Ryo Kamoi, Yusen Zhang, Nan Zhang, Jiawei Han, Rui Zhang; When Can LLMs Actually Correct Their Own Mistakes? A Critical Survey of Self-Correction of LLMs. Transactions of the Association for Computational Linguistics 2024
- 6) Larger and more instructable language models become less reliable, Science-easyview
- 7) 신동형, 대규모 언어 모델(LLM), 이렇게 생각하고 배웁니다, 신동형의 ICT 미래 읽기, 2024/6