Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

신뢰 전략 계획

학습 목표

이 유닛을 완료하면 다음을 수행할 수 있습니다.

  • 프로젝트의 AI 위험을 평가하여 위험 프로필을 만들 수 있습니다.
  • 위험 프로필을 기반으로 가드레일을 구현할 수 있습니다.

신뢰로 시작하기

AI에는 특정 위험이 따릅니다. 그럼 여러분의 AI 솔루션이 윤리적이고 안전하며 책임감 있는 솔루션인지 어떻게 알 수 있을까요? 신뢰 전략을 수립하면 됩니다.

프로젝트의 신뢰 전략은 민감한 데이터를 안전하게 유지하고, 규제 요구 사항을 충족하고 회사의 평판이 손상되지 않도록 하는 등 신뢰에 대한 위험을 완화하기 위한 플랜입니다.

신뢰 전략을 정의하는 첫 번째 단계는 프로젝트의 위험 프로필을 만드는 것입니다. 위험 프로필은 프로젝트의 위험을 관리하고 우선 순위를 지정하는 방법을 알려줍니다. 여기에는 위험의 유형과 수준, 부정적인 영향을 미칠 가능성, 각 위험 유형에 따른 혼란의 정도 또는 비용이 포함됩니다. 효과적인 위험 프로필은 우선적으로 처리해야 할 위험을 알려줍니다.

위험 영역

데이터 유출, 규제 요구 사항, 평판 손상과 같은 세 가지 주요 위험 영역에 대한 질문에 답하여 위험 프로필을 만듭니다. 예를 들어 Becca가 프로젝트에 대한 다음 질문에 어떻게 답하는지 살펴보세요.

위험 영역

설명

질문할 사항

Becca의 응답

데이터 유출

데이터 유출은 보안이 유지된 정보가 실수로 노출될 때 발생합니다. 사이버 공격, 무단 액세스, 외부 AI 모델로의 민감한 데이터 노출로 인해 발생할 수 있습니다. 데이터 유출을 방지하려면 데이터를 안전하게 저장하고 권한이 있는 사용자만 액세스할 수 있도록 합니다. 이 위험 영역에는 개인 식별 번호(PII)와 같은 민감한 데이터도 포함됩니다.

  • 여러분의 프로젝트에서 데이터 유출이 발생할 수 있는 틈새는 무엇인가요?
  • 여러분이 사용하고 있는 민감한 데이터는 무엇인가요?

Becca는 Coral Cloud가 데이터 저장을 위한 안전한 시스템을 갖추고 있다는 것을 알고 있습니다. 하지만 Becca의 프로젝트에는 누군가가 Einstein에 고객 체크인을 지시하여 체크인 프로세스를 트리거하는 휴먼 인 더 루프 또는 인간 상호 작용이 포함되어 있습니다.

Becca는 실행 중인 사용자가 고객이 숙박하는 위치와 날짜를 확인할 수 있기 때문에 데이터 유출 가능성이 있다고 생각합니다. 권한이 없는 사람에게 유출되면 위험한 정보가 됩니다.

Becca의 프로젝트에는 성명, 연락처 정보, 신용카드 정보와 같은 민감한 정보가 포함되어 있습니다.

규제 요구 사항

프로젝트가 운영 중인 관할 지역 및 해당 산업의 법적 요구 사항을 충족하는지 확인합니다. 모든 규정을 준수하지 않으면 벌금, 평판 손상, 기타 법적 불이익에 직면할 수 있습니다. 첫 번째 유닛에서 식별한 법무 팀이 모든 규정을 파악하고 준수하는 데 도움을 줄 수 있습니다.

  • 프로젝트가 준수해야 하는 규정은 무엇인가요?

Coral Cloud는 유럽에서 운영되기 때문에 Becca의 프로젝트는 일반 데이터 보호 규정(GDPR)을 준수해야 합니다. Becca는 법무 팀에 연락해 준수해야 할 다른 규정이 있는지 조사해 달라고 요청합니다.

평판 손상

AI 프로젝트는 고객과 상호 작용하기 때문에 회사의 목소리를 대변합니다. AI는 데이터 집합의 유해성 또는 기술적 공격으로 인해 유해하거나 사실이 아닌 응답을 생성할 수 있습니다.

  • 프로젝트의 성과가 좋지 않을 경우 평판에 어떤 영향을 미치나요?

AI가 생성한 환영 이메일에 불쾌한 표현이 포함되면 Coral Cloud는 무례하고 불친절한 것으로 간주됩니다. 그러면 Coral Cloud는 소중한 기존 고객과 잠재 고객을 잃게 됩니다. Becca는 숙박 업계에서 평판 손상이 심각한 문제라는 사실을 알고 있습니다.

위험 프로필 만들기

Becca는 다양한 위험 영역에 대한 평가를 기반으로 프로젝트의 위험 프로필을 만듭니다. 1은 위험도가 매우 낮은 것이고, 5는 위험도가 매우 높은 것입니다.

위험 유형

부정적인 영향의 수준

부정적인 영향의 가능성

혼란 또는 비용

데이터 유출

4: 데이터가 유출되면 고객의 안전과 사생활이 침해됩니다.

3: Coral Cloud의 데이터는 안전하게 저장되지만, 이러한 위험을 해결하기 위해 다른 제어 장치를 마련해야 합니다.

4: 고객의 신뢰 상실

규제 요구 사항

5: Coral Cloud는 벌금, 기타 법적 처벌, 고객의 신뢰 상실에 직면하게 됩니다.

5: Becca의 프로젝트가 규정을 준수하지 않으면 Coral Cloud는 부정적인 결과에 직면할 가능성이 매우 높습니다.

5: 법적 처벌, 벌금, 고객의 신뢰 상실

평판 손상

5: Coral Cloud의 평판이 손상되면 잠재적인 고객 및 수익을 잃게 됩니다.

4: Becca는 프롬프트를 개선하고 평판 손상을 방지하기 위한 다른 방법을 구현해야 합니다.

4: 고객의 신뢰 상실

Becca는 위험 프로필을 기반으로 먼저 규제 요구 사항을 처리한 다음, 평판 손상, 데이터 유출을 순서대로 처리하기로 결정했습니다. Becca는 각 위험을 관리하는 방법을 계획하기 시작합니다.

가드레일 유형

이제 어떤 위험이 있는지 알게 되었으니 AI 가드레일을 구현합니다. AI 가드레일은 AI 프로젝트가 합법적이고 윤리적으로 운영될 수 있도록 하는 체계입니다. 편향된 결정, 불쾌한 표현, 노출된 데이터로 인해 AI가 손해를 끼치는 것을 방지하려면 가드레일이 필요합니다. 가드레일은 프로젝트를 기술적 공격으로부터 보호하는 데 필요합니다.

3가지 유형의 AI 가드레일, 즉 보안 가드레일, 기술적 가드레일, 윤리적 가드레일이 있습니다.

보안 가드레일

이 가드레일을 통해 프로젝트가 법과 규정을 준수하고, 개인 데이터와 인권을 보호할 수 있습니다. 여기에는 보안이 유지된 데이터 검색, 데이터 마스킹, 데이터 보존 금지 등의 일반적인 도구가 포함됩니다.

보안이 유지된 데이터 검색은 프로젝트에서 실행 사용자가 액세스 권한을 가진 데이터에만 액세스할 수 있는 것입니다. 예를 들어 재무 레코드에 대한 액세스 권한이 없는 사람이 AI 모델에서 응답을 트리거하면, 모델은 재무 레코드와 관련된 데이터를 검색하지 못해야 합니다. 데이터 마스킹은 민감한 데이터를 외부 모델에 노출되기 전에 자리 표시자 데이터로 대체하는 것입니다. 이렇게 하면 민감한 데이터가 유출될 위험이 없습니다. 모델 공급자는 데이터 보존 금지 정책을 적용하므로 데이터를 작업에 필요한 순간까지만 사용하고 그 이후에 저장하지는 않습니다. 따라서 응답을 생성한 후에는 사용된 데이터가 사라집니다.

기술적 가드레일

이 가드레일은 프롬프트 주입, 탈옥과 같은 해커의 기술적 공격 또는 모델이 민감한 정보를 노출하도록 하는 기타 방법으로부터 프로젝트를 보호합니다. 사이버 공격으로 인해 프로젝트가 사실이 아니거나 유해한 응답을 생성할 수 있습니다.

윤리적 가드레일

이 가드레일은 프로젝트가 인간의 가치에 부합하도록 합니다. 여기에는 유해성 및 편향에 대한 검사가 포함됩니다.

유해성은 AI 모델이 혐오적, 모욕적, 신성 모독적(HAP) 또는 음란한 컨텐츠를 생성하는 것입니다. 편향은 AI가 인종이나 성별 고정관념과 같은 부정적인 고정관념을 반영하는 것입니다. 상상할 수 있듯이 이는 심각한 문제입니다. AI는 자신의 응답을 학습하기 때문에, 유해성 및 편향은 데이터가 모델에 원치 않는 표현 및 아이디어를 유입시키고 있다는 신호일 수 있습니다. 유해성 탐지 기능은 불쾌한 표현을 포함할 수 있는 응답을 식별하므로 수동으로 검토하고 조정하여 유해성을 줄일 수 있습니다.

이제 가드레일이 무엇이며 프로젝트를 위험으로부터 어떻게 보호하는지 알게 되었습니다. 다음으로 Becca가 신뢰 전략에 가드레일을 어떻게 구현하는지 살펴보겠습니다.

Coral Cloud의 신뢰 전략

신뢰 전략을 구현하는 방법은 사용 중인 시스템에 따라 달라집니다. Becca는 Salesforce를 사용하고 있기 때문에 Einstein Trust Layer를 기반으로 신뢰 전략을 수립합니다. Einstein Trust Layer는 Salesforce 협력체계 전반에서 데이터 개인정보를 보호하고 AI 정확도를 높이고 책임감 있는 AI 사용을 촉진하기 위해 설계된 기능, 프로세스, 정책 모음입니다. Becca의 프로젝트에서 프롬프트 빌더와 같은 Einstein 생성형 AI 기능을 통해 프로젝트를 만들면, 자동으로 Einstein Trust Layer를 거칩니다.

Becca는 Einstein Trust Layer의 기능을 사용하여 각 위험 영역을 해결하는 신뢰 전략을 정의합니다. 그리고 원하는 결과를 시각화합니다. 다음은 Becca의 신뢰 전략에서 발췌한 내용입니다.

이 다이어그램은 Einstein Trust Layer가 프롬프트를 안전하게 처리하여 응답을 생성하는 방법을 보여줍니다.

위험 영역

Becca의 신뢰 전략

Einstein Trust Layer의 기능

결과

데이터 유출

  • 권한이 없는 사용자가 보안 정보에 액세스하지 못하도록 합니다.
  • 고객 이름, 연락처 정보, 신용카드 정보를 데이터 마스킹으로 보호합니다.
  • 보안이 유지된 데이터 검색 및 신뢰할 수 있는 출처 기반
  • 데이터 마스킹
  • 예약 세부 정보에 대한 액세스 권한이 없는 사용자는 프롬프트를 사용하여 예약 세부 정보에 액세스할 수 없습니다.
  • 민감한 정보가 타사 LLM에 유입되지 않습니다.

평판 손상

  • 시스템 정책을 사용하여 예상치 못한 프롬프트에 어떻게 대응할지 AI 솔루션에 지시합니다. 이렇게 하면 부정확하거나 유해한 응답을 생성하도록 유도하는 기술적 공격으로부터 솔루션을 보호할 수 있습니다.
  • 프롬프트 방어
  • 프롬프트 방어 정책으로 인해 기술적 공격이 성공하지 못합니다. 예를 들어 Coral Cloud의 시스템에 등록되지 않은 사람이 체크인을 시도하면 AI 솔루션은 응답을 생성하지 않습니다.

Becca는 신뢰 전략을 완성하기 전에 법무 팀 및 보안 팀과 만나서 빈틈이 없는지 확인합니다.

다음 단계

신뢰 전략을 수립한 Becca는 프로젝트 계획을 완료했습니다! Salesforce에서 프로젝트를 구현하는 구축 단계를 시작할 준비가 되었습니다. Copilot 및 프롬프트 빌더에 Data Cloud 연결에서 Becca의 프로젝트를 계속 따라가 보세요.

프로젝트를 구축할 때 위험에 대한 작업은 일회성 작업이 아니라는 점을 명심하세요. 프로젝트를 구현한 후에는 위험을 지속적으로 모니터링하고 감사합니다. 모니터링하면 문제가 발생할 가능성이 있는 추세를 조기에 파악하여 조정할 수 있습니다. 유해성 점수와 피드백을 검토하여 솔루션의 문제점을 파악하고, 조정하여 위험 요소를 제거합니다.

요약

이 모듈에서는 AI 프로젝트를 준비할 때 필수적인 단계에 대해 설명합니다. 이제 프로젝트 이해당사자를 파악하고 목표를 설정하고 기술 솔루션을 선택하는 방법을 알게 되었습니다. 그리고 고품질 데이터를 준비하고 프로젝트의 요구 사항을 충족하는 방법을 이해했습니다. 또한 신뢰 전략을 통해 프로젝트에 대한 위험을 완화하는 방법과 위험을 모니터링하는 것이 중요한 이유를 알게 되었습니다.

새로운 지식을 습득했으니 성공적인 AI 프로젝트를 시작할 수 있습니다! 롤아웃을 시작하기 전에 AI 구현을 위한 변화 관리를 완료해야 합니다.

리소스

Salesforce 도움말에서 Trailhead 피드백을 공유하세요.

Trailhead에 관한 여러분의 의견에 귀 기울이겠습니다. 이제 Salesforce 도움말 사이트에서 언제든지 새로운 피드백 양식을 작성할 수 있습니다.

자세히 알아보기 의견 공유하기