Einstein Trust Layer 살펴보기
학습 목표
이 유닛을 완료하면 다음을 수행할 수 있습니다.
- Salesforce 최고의 가치인 ‘신뢰’에 대해 알아봅니다.
- 신뢰도 강화 및 생성형 AI와 관련된 우려 사항을 파악합니다.
- Salesforce가 Einstein Trust Layer를 만든 이유를 이해합니다.
시작하기 전에
새로운 생성형 인공 지능(AI) 도구를 출시한 Salesforce가 회사 데이터와 고객 데이터를 어떻게 보호하는지 궁금하실 수 있습니다. 하지만 시작하기 전에 생성형 AI 기초, 프롬프트 기초 및 대규모 언어 모델 배지를 획득하여 LLM, 프롬프트, 기반, 환각, 비속어 등과 같은 용어에 익숙해지도록 하세요. 리소스 섹션에서 각 항목에 대한 링크와 Salesforce에서 사용되는 AI 용어집을 확인할 수 있습니다.
생성형 AI, Salesforce 및 신뢰도
생성형 AI는 완전히 새로운 방식으로 창의성을 발휘할 수 있다는 점에서 모두가 기대하는 기술입니다. 생성형 AI를 사용하면 상당히 즐겁게 작업할 수 있습니다. 예를 들어, Midjourney를 사용하여 반려 동물의 슈퍼 히어로 이미지를 만들거나 ChatGPT를 사용하여 해적이 쓴 시를 만들 수 있습니다. 여러 기업이 생성형 AI에 열광하는 이유는 바로 생산성 향상 때문입니다. Salesforce 연구에 따르면 직원들은 생성형 AI를 통해 주당 평균 5시간을 절감할 수 있을 것으로 예측됩니다. 정규직의 경우 이 수치는 연간 한 달에 해당하는 시간입니다.
하지만 이 모든 기대치에도 불구하고 다음과 같은 질문이 뒤따를 수 있습니다.
- 생성형 AI 도구를 활용하면서 내 데이터와 고객 데이터를 안전하게 유지하려면 어떻게 해야 하나요?
- 다양한 생성형 AI 제공업체가 어떤 데이터를 수집하고 어떻게 사용하는지 어떻게 알 수 있나요?
- AI 모델을 학습시킬 때 실수로 개인정보 또는 회사 데이터를 넘기지 않으려면 어떻게 해야 하나요?
- AI가 생성한 응답이 편향되지 않고, 정확하며 신뢰할 수 있는지 어떻게 확인할 수 있나요?
Salesforce와 신뢰도
Salesforce 역시 인공 지능과 보안에 대해 동일한 의문을 품고 있었습니다. 실제로 Salesforce는 거의 10년 가까이 AI에 모든 노력을 기울였습니다. 2016년, Salesforce는 Einstein 플랫폼을 출시하여 예측 가능한 AI를 클라우드에 도입했습니다. 출시 직후인 2018년부터는 대규모 언어 모델(LLM)에 투자하기 시작했습니다.
고객이 데이터를 보다 효율적으로 사용하고 회사, 직원, 고객의 생산성과 효율성을 증대할 수 있도록 지원하는 생성형 AI 솔루션을 구축하고자 지속적으로 노력을 기울였습니다. Salesforce는 신뢰도를 최우선 가치로 삼고 있기 때문에, 생성형 AI의 기술적 역량만으로는 충분하지 않다고 생각합니다. Salesforce는 책임감, 투명성, 역량 강화, 포용성을 갖춰야 하는 의무를 가지고 있다고 생각합니다. 이에 따라, 생성형 AI 도구를 구축할 때 ‘신뢰’라는 가치를 함께 전달합니다.
Einstein Trust Layer를 시작해 보세요. Salesforce는 여러분과 동료가 조직에서 생성형 AI를 안전하게 사용할 수 있도록 Trust Layer를 구축했습니다. Salesforce가 업계에서 가장 안전한 생성형 AI를 만들고자 기울인 노력에는 어떤 것들이 있는지 살펴보겠습니다.
Einstein Trust Layer란?
Einstein Trust Layer는 최종 사용자 경험에 원활하게 통합된 데이터 및 개인정보보호 제어를 통해 생성형 AI의 보안을 강화합니다. 이러한 제어를 통해 잠재적인 보안 위험 없이 고객 데이터와 회사 데이터에 안전하게 기반을 둔 AI를 제공할 수 있습니다. Trust Layer는 가장 간단한 형태로 일련의 게이트웨이와 검색 메커니즘을 통해 신뢰할 수 있는 개방형 및 생성형 AI를 구현합니다.
Einstein Trust Layer를 통해 고객은 데이터 보안 및 개인정보보호 제어를 유지하면서 생성형 AI의 이점도 누릴 수 있습니다. 여기에는 안전한 데이터 검색, 동적 기반, 데이터 마스킹, 데이터 보존 금지 등 데이터를 보호하는 다양한 기능이 포함되어 있으므로 데이터를 어디에 저장할지 걱정할 필요가 없습니다. 비속어 감지 기능은 프롬프트와 응답의 정확성을 검사하여 적절성 여부를 확인합니다. 또한 추가적인 책임을 위해 감사 추적 기능을 통해 프롬프트의 각 단계에 걸쳐 프롬프트를 추적합니다. 다음 유닛에서 이러한 각 기능에 대해 자세히 살펴보겠습니다.
Salesforce는 개방형 모델 협력체계를 설계하여 Salesforce 내외부의 수많은 대규모 언어 모델(LLM)에 안전하게 액세스할 수 있도록 했습니다. Trust Layer는 LLM과 직원 및 고객 사이에서 데이터를 안전하게 보호하는 동시에 상담 센터의 영업 이메일, 업무 요약 및 서비스 답변을 비롯한 모든 비즈니스 사용 사례에 생성형 AI를 사용합니다.
다음 유닛에서는 프롬프트 및 응답 여정을 자세히 살펴보고 Einstein Trust Layer가 데이터를 보호하는 방법을 알아보겠습니다.
리소스
-
문서: Einstein GPT 용어집
-
블로그: Salesforce의 신뢰할 수 있는 AI 원칙 살펴보기
-
블로그: 생성형 AI: 책임감 있는 개발을 위한 5가지 지침
-
Trailhead: 책임감을 갖고 인공 지능 만들기
-
Trailhead: 대규모 언어 모델
-
Trailhead: 프롬프트 기초