응답 여정 따르기
학습 목표
이 유닛을 완료하면 다음을 수행할 수 있습니다.
- 응답 여정을 이해합니다.
- 데이터 보존 금지에 대해 알아봅니다.
- 비속어 감지가 중요한 이유를 파악합니다.
빠른 프롬프트 여정 검토
Salesforce에서 Jessica의 고객 데이터와 회사 데이터를 보호하기 위해 Einstein Trust Layer를 통해 신중한 조치를 취한 것을 확인할 수 있습니다. 자세한 내용을 알아보기 전에 프롬프트 여정을 간단히 검토해보세요.
- Jessica의 고객 서비스 사례를 지원하기 위해 Service Replies에서 자동으로 프롬프트 템플릿을 가져왔습니다.
- 프롬프트 템플릿의 병합 필드는 Jessica의 조직에서 신뢰할 수 있고 안전한 데이터로 채워졌습니다.
- 관련 Knowledge 기사와 다른 개체의 세부 정보를 검색한 다음 프롬프트에 더 많은 컨텍스트를 추가하기 위해 포함시켰습니다.
- 개인 식별 정보(PII)는 마스킹 처리되었습니다.
- 프롬프트에 추가 보안 가드 레일을 적용하여 프롬프트를 더욱 안전하게 보호했습니다.
- 이제 보안 게이트웨이를 통과하여 외부 LLM으로 프롬프트를 전달될 준비를 마쳤습니다.
보안 LLM 게이트웨이
관련 데이터로 프롬프트가 채워지고 보호 조치가 적용되면 보안 LLM 게이트웨이를 통해 연결된 LLM으로 이동하여 Salesforce Trust Boundary에서 출력될 준비를 마치게 됩니다. 이 경우 Jessica의 조직이 연결된 LLM은 OpenAI입니다. OpenAI는 이 프롬프트를 사용하여 Jessica가 고객과의 대화에서 사용할 수 있는 관련성 높은 고품질 응답을 생성합니다.
데이터 보존 금지
Jessica가 강력한 Trust Layer 없이 생성형 AI 챗봇과 같은 소비자 대상 LLM 도구를 사용한 경우, 고객의 모든 데이터와 LLM의 응답을 포함한 Jessica의 프롬프트가 모델 학습을 위해 LLM에 저장될 수 있습니다. 하지만 Salesforce는 외부 API 기반 LLM과 파트너 관계를 맺을 경우 전체 상호 작용을 안전하게 유지하기 위한 계약을 요구하며, 이를 데이터 보존 금지라고 합니다. 데이터 보존 금지 정책은 프롬프트 텍스트와 생성된 응답을 포함한 고객 데이터가 Salesforce 외부에 저장되지 않음을 의미합니다.
작동 방식은 다음과 같습니다. Jessica의 프롬프트는 LLM에게 전송되며, 이 프롬프트는 명령어입니다. LLM은 이 프롬프트를 수신하고 가드 레일을 준수하면서 지침에 따라 하나 이상의 응답을 생성합니다.
일반적으로 OpenAI는 오용 여부를 모니터링하기 위해 프롬프트와 프롬프트 응답을 일정 기간 동안 유지하고자 합니다. OpenAI의 강력한 LLM은 지난 유닛에서 학습한 프롬프트 가로채기 공격 등 비정상적인 이벤트가 모델에 발생하는지 확인합니다. 하지만 데이터 보존 금지 정책에 따라 LLM 파트너는 상호 작용에서 발생한 어떠한 데이터도 보존할 수 없습니다. Salesforce는 이를 적절히 처리하는 계약을 체결했습니다.
Salesforce는 OpenAI가 데이터를 저장하도록 허용하지 않습니다. 따라서 프롬프트가 OpenAI로 전송될 경우 모델은 응답이 Salesforce로 다시 전송되는 즉시 프롬프트와 응답을 삭제합니다. 이 과정은 Salesforce가 자체 콘텐츠와 오용을 처리할 수 있으므로 중요합니다. 또한 Jessica와 같은 사용자는 LLM 제공업체가 고객 데이터를 보유하고 사용하는 점에 대해 우려하지 않아도 됩니다.
응답 여정
처음 Jessica를 소개할 때, Jessica는 AI가 생성한 응답이 본인이 판단하는 신중한 답변의 기준에 부합하지 않을 수 있다는 점에 다소 긴장하고 있었다고 언급했습니다. 하지만 Einstein Trust Layer를 통해 이 부분도 해결할 수 있으므로 Jessica는 걱정할 필요가 없습니다. Einstein Trust Layer에는 개인화되고 전문적인 대화를 유지하는 데 도움이 되는 몇 가지 기능이 포함되어 있습니다.
Jessica가 고객과 나눈 대화에서 얻은 프롬프트 템플릿에 해당 고객 정보와 사례 관련 유용한 컨텍스트가 채워지는 것을 확인했습니다. 이제 LLM이 이러한 세부 정보를 사용하여 Salesforce Trust Boundary로 다시 응답을 전달했습니다. 하지만 아직 Jessica는 해당 응답을 확인할 수 없습니다. 어조도 친근하고 전달하는 내용도 정확하지만, 의도하지 않은 내용이 출력되지 않았는지 Trust Layer에서 점검해야 합니다. 또한 응답에는 여전히 마스킹된 데이터 블록이 포함되어 있으며, Jessica는 해당 데이터를 고객과 공유하기에는 관계 없는 부분이 많다고 생각할 수 있습니다. Trust Layer는 응답을 공유하기 전에 몇 가지 중요한 작업을 더 수행해야 합니다.
비속어 감지 및 데이터 마스킹 해제
Jessica의 대화에 대한 응답이 LLM에서 Salesforce Trust Boundary로 다시 전달될 경우 두 가지 중요한 이벤트가 발생합니다. 먼저, 유해성 여부를 확인합니다. 심화 학습 모델 집합으로 구축된 Salesforce 평가 도구를 통해 응답에 유해한 내용이 있는지 검사합니다. 이 도구에는 어떤 기능이 있을까요? 비속어 감지 기능은 유해한, 증오심을 표출하는, 폭력적, 선정적, 신원 도용, 신체적, 욕설 등의 반응으로부터 Jessica와 고객을 보호합니다. 이 도구는 이러한 범주에 따라 초기 응답 점수를 책정하고 해당 응답을 호출한 애플리케이션(이 경우에는 Service Replies)으로 응답을 다시 보냅니다.
다음으로, 프롬프트가 Jessica에게 공유되기 전에 Trust Layer는 이전에 언급한 마스킹된 데이터를 공개하여 응답이 개인화되고 Jessica의 고객과 관련된 내용으로 작성되도록 해야 합니다. Trust Layer는 원래 데이터를 마스킹할 때 저장한 데이터와 동일한 토큰화된 데이터를 사용하여 마스킹을 해제합니다. 데이터를 마스킹 해제하면 Jessica에게 응답이 공유됩니다.
또한 응답 하단에 소스 링크가 있는지 확인하세요. Knowledge Article Creation(파일럿 버전)은 기여도가 높고 유용한 소스 기사의 링크를 포함하여 응답에 신뢰성을 더합니다.
피드백 프레임워크(아직 제공되지 않음)
처음으로 응답을 확인한 Jessica는 안도의 미소를 지었습니다. Jessica는 LLM으로부터 받은 응답의 품질과 디테일 수준을 인상 깊게 보았습니다. 또한 본인이 업무를 처리하는 스타일과 적절히 맞아떨어진다는 점에도 만족했습니다. Jessica는 고객에게 보내기 전에 응답을 검토하며 해당 응답을 그대로 수락할지, 편집한 후 보낼지, 무시할지 여부를 선택할 수 있다는 점을 알게 되었습니다.
또한 (1) 좋아요/싫어요의 형태로 정성적 피드백을 제공할 수 있으며 (2) 응답이 도움이 되지 않았다면 그 이유를 명시할 수도 있습니다. 이러한 피드백은 수집되어 향후 프롬프트의 품질을 개선하는 데 안전하게 사용될 수 있습니다.
감사 추적
마지막으로 Trust Layer에 대해 하나만 더 살펴보겠습니다. 이 유닛의 시작 부분에서 다룬 데이터 보존 금지 정책을 기억하시나요? Trust Layer는 내부적으로 비속어 점수 및 조정을 처리하므로 전체 프롬프트에서 응답까지의 여정 동안 발생하는 모든 단계를 추적합니다.
Jessica와 고객 간의 전체 상호 작용 도중 발생한 모든 이벤트는 타임스탬프가 기록된 메타데이터로 감사 추적에 수집됩니다. 여기에는 프롬프트, 필터링되지 않은 원본 응답, 비속어 점수 및 해당하는 과정에서 수집된 피드백이 포함됩니다. Einstein Trust Layer 감사 추적은 책임 수준을 높여 Jessica가 고객의 데이터가 보호되고 있음을 확신할 수 있도록 합니다.
Jessica가 고객 지원 업무를 시작한 이후 많은 일이 있었지만, 이러한 모든 일이 눈 깜박할 사이에 이루어졌습니다. 단 몇 초 만에, 프롬프트에서 전체 Trust Layer 프로세스의 보안을 거쳐 고객과 채팅으로 공유할 수 있는 전문적이고 관련성 있는 응답으로 대화가 진행되었습니다.
Jessica는 고객이 응답과 고객 서비스 경험에 만족한 것을 확인하고 해당 건을 종결했습니다. 무엇보다 Jessica는 Service Replies의 생성형 AI 기능을 계속 사용할 수 있게 되어 상당히 기쁘게 생각하며, 이를 통해 각 업무 사례를 더 빠르게 종결하고 고객 만족도를 높일 수 있을 것이라 확신합니다.
모든 Salesforce 생성형 AI 솔루션은 동일한 Trust Layer 여정을 거칩니다. 모든 솔루션은 안전하므로 사용자 데이터와 고객 데이터 또한 안전하다는 확신을 가질 수 있습니다.
Einstein Trust Layer의 작동 방식을 살펴봤습니다. 신뢰도 강화 및 생성형 AI와 관련하여 Salesforce가 취하고 있는 조치에 대해 자세히 알아보려면 책임감을 갖고 인공 지능 만들기 Trailhead 뱃지를 획득하세요.
리소스