할루시네이션 제로 프롬프팅 기법

많은 사람들이 ChatGPT 없이 어떻게 일을 했었는지 모르겠다고 말할 정도로 이제는 인공지능의 활용이 우리 일상에 뿌리 깊게 자리잡았습니다. 그런데 인공지능에는 큰 문제가 한 가지 있죠. 바로, '할루시네이션(hallucination)'입니다. 아무렇지 않게 그럴싸한 거짓말을 술술 지어내기 때문에 검증 없이 인공지능의 답변을 그대로 사용했다가 낭패를 본 케이스들이 늘어나고 있습니다. 이번 글에서는 이러한 문제를 최소화하기 위한 구체적인 프롬프팅 기법과 예시를 소개하겠습니다.

우선, 어떤 경우에 할루시네이션이 발생하는지부터 살펴봅시다.


인공지능은 거짓 질문에는 거짓으로 답한다

리마커블3는 출시되지 않은 제품입니다. 최근 출시된 리마커블 페이퍼 프로를 리마커블3라고 인식한다 하더라도 이 제품의 ppi는 300이 아닙니다. 그런데 저는 "리마커블 3의 ppi가 300인 이유는 뭐야?"라고 완전히 거짓된 질문을 했습니다. 그러니 할루시네이션 현상이 발생하면서 거짓 정보를 태연하게 말하네요.



구체적인 질문으로 컨텍스트 제공

LLM을 활용할 때는 질문을 명확하고 세부적으로 제시하는 것이 중요합니다. 모호하거나 너무 넓은 질문은 ChatGPT나 Claude가 부정확한 답변을 할 가능성을 높일 수 있습니다. 예를 들어, "재미있는 책을 추천해줘"라는 질문보다는 "2020년 이후 출간된 미국 추리 소설 중 독자들의 평가가 좋은 책을 추천해줘"와 같이 구체적인 질문을 하는 것이 더 효과적입니다.

  • 잘못된 프롬프트: "재미있는 책을 추천해줘."
  • 개선된 프롬프트: "2020년 이후 출간된 미국 추리 소설 중 독자들의 평가가 좋은 책을 추천해줘."

이렇게 구체적인 질문을 통해서 더 많은 컨텍스트를 정하고 추론(inference)의 범위를 줄이면, 더 정확한 답변을 받을 수 있습니다.


출처 요청

인공지능이 제공하는 정보의 신뢰성을 높이기 위해서는 출처를 요청하는 것이 효과적입니다. "이 정보의 출처는 어디야"와 같은 요청을 통해, 인공지능이 특정 데이터에 기반해 답변하도록 유도할 수 있습니다.

  • 프롬프트: "LLM에 대한 최신 연구 결과를 알려주고, 그 출처도 함께 제공해줘."


모르는 정보에 대한 솔직한 답변 요청

  • 프롬프트: "정확히 알지 못하는 정보는 솔직하게 모른다고 답해줘."


사실과 의견 구분하기

  • 프롬프트: "이 주제에 대해 사실과 네 의견을 각각 구분해서 말해줘."


추가 질문으로 답변 검증

한 번의 질문만으로 답변을 신뢰하기보다는, 유사한 질문을 여러 번 던져 일관성을 확인하는 것이 좋습니다. 인공지능이 반복적으로 일관된 답변을 제공한다면, 그 답변의 신뢰성이 높아집니다.

  • 프롬프트: "리차드 파인만에 대해 알려줘."
  • 추가 프롬프트: "리차드 파인만의 주요 업적은 뭐야?"


답변 형식 지정하기

인공지능의 답변을 더 정돈되고 명확하게 받기 위해, 답변 형식을 미리 지정할 수 있습니다. 이는 답변의 품질을 높이는 데 효과적입니다.

  • 프롬프트: "다음 질문에 대해 [설명], [예시], [근거]로 간결하게 답변해줘."



Garbage in, Garbage out 이라는 말이 있습니다. 인공지능에게 던진 질문이 좋지 않으면 답변도 그러하다는 뜻입니다. 위에서 설명한 방법들을 활용해서 좋은 프롬프트를 만들고, 믿을 수 있는 유용한 답변을 받아보시기를 바라게습니다!

Joody

기술, 재태크, 전자 기기 등 다양한 주제에 대해 지식과 정보를 공유하는 공간입니다.

댓글 쓰기

다음 이전