AI에게도 예의 바르게 행동해야 할까?

사진 출처, Serenity Strull/ BBC
- 기자, 토마스 저메인
- 기자, BBC 퓨처
- 읽는 시간: 7 분
챗봇과 대화하는 방법을 두고, 정중하게 예의를 지키라는 조언부터 영화 '스타트렉'의 등장인물처럼 말해 보라는 제안까지, 시중에는 기괴하고도 실효성 없는 조언이 넘쳐난다. 그렇다면 실제로 효과가 있는 방법은 무엇일까.
한 연구팀이 '긍정적 사고'가 AI(인공지능) 챗봇의 정확도를 높이는지 실험했는데, 그 결과는 놀라웠다. 연구진은 다양한 챗봇에 질문을 던지면서 AI를 "똑똑하다"고 칭찬하고, 신중하게 생각해 보라고 독려했으며, 심지어 질문 끝에 "재미있을 것!"이라고 덧붙이기도 했다.
이러한 시도들이 모두 일관된 차이를 만들어낸 것은 아니었지만, 한 가지 기법은 두드러졌다. 인공지능에게 영화 '스타트렉'에 출연한 것처럼 행동하라고 하자, 기본적인 수학 계산 능력이 향상된 것이다. 이쯤 되면 "빔 미 업(Beam me up, 나를 순간이동시켜 달라는 스타트렉 대사)"이라도 외쳐야 할 판이다.
사람들은 챗GPT 같은 도구의 기반이 되는 AI 기술, 즉 대규모 언어 모델(LLM)로부터 더 나은 답을 얻기 위해 온갖 기이한 전략을 동원한다. 위협을 가하면 AI가 더 잘 작동한다고 주장하는 이들도 있고, 예의를 갖추면 챗봇이 더 협조적으로 반응한다고 믿는 이들도 있다.
또 어떤 이들은 로봇에게 특정 분야의 전문가 역할을 맡기기도 한다. 이러한 조언은 실로 각양각색이다. 이는 AI로부터 더 나은 결과를 끌어내기 위해 어떤 식으로 지시문을 작성할 것인가에 관한 방법론, 즉 "프롬프트 엔지니어링" 또는 "컨텍스트 엔지니어링"에 대한 이야기다.
하지만 전문가들은 AI 프롬프트에 대한 통념의 상당수가 실제로는 효과가 없다고 말한다. 경우에 따라서는 오히려 위험할 수도 있다. 그렇지만 AI와 대화하는 방식이 중요하다는 점은 분명하며, 일부 기법은 실제로 차이를 만들어낸다.
미국 밴더빌트대학교에서 생성형 AI를 연구하는 컴퓨터과학과 교수 줄스 화이트는 "많은 사람들이 특정한 마법 같은 단어 조합을 쓰면 대규모 언어 모델이 문제를 해결해 줄 거라고 생각한다"고 말했다. "하지만 핵심은 단어 선택이 아니라, 사용자가 하려는 바를 근본적으로 어떻게 구조화해 표현하느냐에 달려 있습니다."
예의를 지켜라?
2025년, X(구 트위터)의 한 사용자는 "사람들이 챗봇 모델에 'please(부탁해요)'와 'thank you(고마워요)' 같은 표현을 써서 오픈AI가 전기 요금을 얼마나 더 냈는지 궁금하다"는 글을 올렸다. 챗GPT를 만든 오픈AI의 최고경영자 샘 알트먼이 이에 답했다. 그는 "수천만 달러를 쓰긴 했지만, 그럴 만한 가치가 있었다"고 말했다. "어떤 결과로 돌아올지는 아무도 모르니까요."
대부분의 사람들은 "수천만 달러"라는 숫자를 얼마나 진지하게 받아들여야 할지 판단하기 어려워하면서도, 그의 마지막 말은 잠재적인 AI 파멸론을 장난스럽게 암시한 것으로 생각하곤 한다. 하지만 예의는 실용적인 문제이기도 하다.

사진 출처, erenity Strull/ BBC
대규모 언어 모델은 사용자의 말을 "토큰"이라 불리는 작은 단위로 분해한 뒤, 통계적 분석을 통해 적절한 응답을 생성하는 방식으로 작동한다. 이는 단어 선택은 물론 쉼표 하나까지도 AI의 응답에 영향을 미칠 수 있음을 뜻한다. 문제는 그 영향을 예측하는 일이 사실상 불가능에 가깝다는 점이다. AI 프롬프트의 사소한 변화에서 일정한 패턴을 찾으려는 다양한 연구가 진행됐지만, 대부분의 결과는 서로 엇갈리며 결정적인 결론에 이르지 못하고 있다.
예를 들어 2024년의 한 연구에 따르면, 대규모 언어 모델은 명령조로 지시하기보다 정중하게 요청했을 때 더 정확하고 질 높은 답변을 제공했다. 더 흥미로운 점은 문화적 차이가 관찰됐다는 것이다. 중국어와 영어의 경우에는 정중한 표현이 도움이 되었지만, 일본어로 대화할 때는 지나치게 공손한 요청이 오히려 성능을 약간 떨어뜨렸다.
하지만 이 대목만 보고 AI와 대화할 때마다 감사 인사를 덧붙일 필요는 없다. 다른 소규모 실험에서는 이전 버전의 챗GPT가 모욕적인 표현에 오히려 더 정확하게 반응한 사례도 보고됐다. 전반적으로 이 주제에 대한 연구는 아직 충분하지 않아 확정적인 결론을 내리기 어렵다. 게다가 AI 기업들은 모델을 지속적으로 업데이트하고 있어, 연구 결과가 금세 구식이 되기도 한다.
전문가들은 인공지능 모델이 불과 몇 년 사이에 비약적으로 발전했기 때문에, 정확도를 높이기 위해 아첨이나 예의, 혹은 모욕이나 위협 같은 전략을 쓰는 것은 이제 큰 의미가 없다고 말한다.
브로드컴의 응용 머신러닝 엔지니어이자 앞서 언급된 '스타트렉 연구'의 공동 저자인 릭 배틀은 당시를 돌아보며 "그때는 거의 100% 운에 맡기는 식이었다"고 말했다. 해당 연구가 진행된 것은 2024년이었지만, 기술 발전 속도는 이미 그 수준을 넘어섰다. 오늘날 배틀을 비롯한 전문가들은 챗GPT, 제미나이, 클로드와 같은 최신 AI 모델이 사용자의 프롬프트에서 핵심 요소를 훨씬 더 정확히 파악한다고 설명한다. 이제는 단순히 말투를 조금 바꾼다고 해서 모델이 쉽게 흔들리거나, 사용자가 의도적으로 활용할 수 있을 만큼 일관된 성능 차이가 나타나지는 않는다는 것이다.
이러한 시사점도 한편으로는 다소 부족해 보일 수 있다. 기업들은 챗GPT나 구글의 제미나이 같은 AI를 사람처럼 행동하도록 설계한다. 그러다 보니 AI가 마치 기분이 있거나, 사용자가 조종할 수 있는 성격을 지닌 존재처럼 보일 때도 있다. 그러나 현혹될 필요는 없다. AI 도구는 살아 있는 존재가 아니라, 인간을 흉내 내도록 설계된 시스템에 불과하다. 인간의 행동을 시뮬레이션할 뿐이다. 더 나은 답변을 원한다면, AI를 인격체로 대하기보다 하나의 도구로 다루는 편이 낫다.
챗봇과 대화하는 방법
AI에는 윤리적 문제부터 환경적 영향에 이르기까지 매우 현실적인 쟁점이 존재한다. 아예 AI를 사용하지 않겠다고 결심한 사람들도 있다. 하지만 대규모 언어 모델을 사용할 생각이라면, 원하는 것을 더 빠르고 효율적으로 얻는 방법을 익히는 것이 사용자 자신에게도, 그리고 아마도 그 과정에서 소비되는 에너지 측면에서도 더 나은 선택일 수 있다. 다음은 시도해볼 만한 몇 가지 조언이다.
여러 가지 선택지를 요청하라
화이트는 "내가 사람들에게 가장 먼저 하는 말은 한 가지 답을 요구하지 말고, 세 가지나 다섯 가지를 요구하라는 것"이라고 말했다. 예를 들어 글쓰기에 도움을 받고 싶다면, 중요한 측면에서 서로 다른 여러 선택지를 제시해 달라고 요청하는 것이 좋다. "이렇게 하면 인간이 다시 판단 과정에 참여하게 되고, 자신이 무엇을 좋아하는지, 또 왜 그런지를 생각하게 됩니다."
예시를 들어 보라
가능한 한 AI에 구체적인 샘플을 제시하라. 화이트는 "사람들이 대규모 언어 모델에게 이메일을 작성해 달라고 요청한 뒤 '이건 내 스타일이 전혀 아니야'라며 좌절하는 모습을 자주 본다"고 말했다. 이런 경우 사람들은 자연스럽게 "이렇게 해라", "저렇게 하지 마라" 같은 지시 사항 목록을 늘어놓게 된다. 그러나 화이트는 "내가 과거에 보낸 이메일 10통을 참고해 내 글쓰기 스타일을 반영해 달라"고 요청하는 편이 훨씬 효과적이라고 말했다.
인터뷰를 요청하라
화이트는 "직무 설명서를 작성하고 싶다고 가정해 보라"며 이렇게 조언했다. "이런 상황에서는 AI에게 '매력적인 채용 공고를 작성할 수 있을 만큼 충분한 정보를 모을 때까지, 한 번에 한 가지씩 질문하라'고 지시하라"고 말했다. "한 번에 하나씩 질문하는 과정에서 AI는 사용자의 답변에 맞춰 다음 질문을 조정할 수 있습니다."
역할극에 주의하라
프롬프트 엔지니어링 개념을 대중화하는 데 기여한 기업가이자 연구원인 샌더 슐호프는 "예전에는 AI에게 '수학 교수'라는 역할을 부여하면 수학 문제에 답할 때 정확도가 실제로 높아진다는 생각이 있었다"고 말했다. 그러나 정보를 탐색하거나 정답이 하나뿐인 질문을 할 경우, 역할극이 오히려 AI 모델의 정확도를 떨어뜨릴 수 있다고 슐호프와 다른 연구자들은 말한다.
배틀은 역할극 방식이 "오히려 위험할 수도 있다"고 말했다. "AI를 전문가라고 치켜세우고, 자신의 내부 파라미터에 저장된 지식을 신뢰하라고 부추기는 것은 정보 왜곡을 조장할 수 있습니다." 이런 접근은 결과적으로 AI가 자신의 정확성을 과신하게 만들 수 있다.
반면, 단일한 정답이 없는 광범위한 과제에는 역할극이 효과적일 수 있다. 조언 구하기, 브레인스토밍, 창의적 또는 탐색적 문제 해결 등이 이에 해당한다. 취업 면접을 준비하는 사람이라면, 챗봇에게 채용 담당자 역할을 맡아 달라고 요청하는 것도 좋은 연습이 될 수 있다. 다만 다른 자료와 조언도 함께 참고하는 것이 바람직하다.
중립을 유지하라
배틀은 "유도 질문을 하지 말라"고 말했다. 예를 들어 두 대의 차를 두고 고민 중이라면, 토요타 같은 특정 브랜드에 이미 마음이 기울어 있다는 식의 표현은 피해야 한다. "그렇게 말하는 순간, AI는 당신이 듣고 싶어 하는 방향의 답을 내놓을 가능성이 커집니다."
'please'와 'thank you'
2019년 퓨 리서치 센터 조사에 따르면, 미국인의 절반 이상이 스마트 스피커와 대화할 때 "please"라고 말한다고 답했다. 이러한 경향은 계속되고 있는 것으로 보인다. 출판사 퓨처의 2025년 조사에 따르면, 응답자의 70%가 인공지능을 사용할 때 예의를 갖춘다고 답했다. 대부분은 "그것이 옳은 일이기 때문"이라고 답했지만, 12%는 "로봇의 폭동에 대비해 자신을 보호하기 위해서"라고 답했다.
예의는 성난 로봇으로부터 당신을 보호해주지는 않을 것이며, 대규모 언어 모델의 정확도를 높여주지도 않을 가능성이 크다. 그럼에도 사람들이 계속 예의를 지키는 데는 또 다른 이유도 있다.
슐호프는 "나에게 더 중요한 점은 'please'와 'thank you'라고 말하는 것이 AI와 상호작용할 때 더 편안하다는 사실"이라고 말했다. "이러한 표현이 모델의 성능을 향상시키지는 않겠지만, 사용자가 더 편안함을 느껴 모델을 더 적극적으로 활용하게 된다면, 그 자체로 의미가 있습니다."
우리 내면에 자리한 다정함 역시 고려할 필요가 있다. 철학자 임마누엘 칸트는 동물을 학대해서는 안 되는 이유 가운데 하나로, 그런 행동이 결국 자기 자신에게도 해롭기 때문이라고 주장했다. 본질적으로 무언가를 불친절하게 대하면 우리 자신도 더 거칠고 메마른 사람이 될 수 있다. AI는 감정이 없기에 상처를 입지는 않겠지만, 그럼에도 친절하게 대하는 태도는 의미가 있을지 모른다. 그러한 습관이 결국 우리의 삶의 다른 영역에서도 긍정적인 영향을 미칠 수 있기 때문이다.

















