Skip to main content

AI 거버넌스 수립

학습 목표

이 유닛을 완료하면 다음을 수행할 수 있습니다.

  • AI와 관련된 몇 가지 위험을 나열할 수 있습니다.
  • AI 거버넌스가 무엇인지 설명할 수 있습니다.
  • 자신이 속한 조직의 현재 AI 사용 현황을 파악할 수 있습니다.
  • 자신이 속한 조직의 AI 위험을 평가할 수 있습니다.
  • AI 위험 완화 전략의 예를 나열할 수 있습니다.

AI의 위험성

기술에 수반되는 위험을 인정하지 않고 AI에 대해 이야기하는 것은 거의 불가능합니다. 보안 위협, 부정확성 및 편향에 대한 우려, 데이터 유출 가능성, 평판 손상에 대한 두려움 등에 대해 들어본 적이 있을 것입니다.

상황을 더욱 복잡하게 만드는 것은 기술이 매우 빠른 속도로 발전하고 있다는 점입니다. Salesforce CRM의 AI 동향 보고서에서 보여지듯 68%의 사람들이 AI 발전으로 인해 회사의 신뢰성이 더욱 중요해졌다고 생각하는 것은 당연한 결과입니다.

그러나 많은 경우 AI 혁명은 조직이 변화에 적응하는 능력을 능가하고 있습니다. 이것이 바로 Coral Cloud Resorts의 AI 챔피언이자 경영진인 Alex가 걱정하는 점 중 하나입니다. Coral Cloud는 어떻게 신뢰할 수 있는 방식으로 AI를 도입할 수 있을까요?

거버넌스의 필요성

짐작하셨듯이 AI에 대한 신뢰는 근본적으로 거버넌스와 관련이 있습니다. AI 거버넌스가 무엇인지 알아보겠습니다.

AI 거버넌스는 조직이 책임감 있고 확장 가능한 방식으로 AI 시스템을 개발, 사용, 관리하여 이점을 극대화하고 위험을 완화하는 데 도움이 되는 일련의 정책, 프로세스, 모범 사례입니다.

이 유닛에서는 Alex가 Coral Cloud의 AI 리더십 팀과 협력하여 AI 거버넌스를 수립하는 과정을 따라가 봅니다. 여러분의 조직에는 이미 거버넌스를 감독하는 전담 그룹이 하나 이상 있을 수 있습니다. AI 위원회를 통해 AI 거버넌스를 중앙 집중화할 계획이 아니라면 기존의 내부 거버넌스 조직이 기존 관행을 개선하고 부족한 점을 해결하는 데 필요한 AI 관련 전문 지식을 갖추고 있는지 확인하세요.

책임감 있는 AI 원칙 개발

Coral Cloud가 거버넌스 프로그램을 만들기 시작하기 전에 Alex는 리더십 팀에게 한 발 물러서서 책임감 있게 AI를 개발하겠다는 약속에 집중하는 방법에 대해 생각해 보라고 권유합니다. 그들의 목표는 무엇일까요?

AI를 도입하는 많은 조직들은 책임감 있는 AI 원칙을 세우는 것이 도움이 된다고 생각합니다. 일련의 AI 원칙을 통해 기업은 AI에 대한 입장을 명확하게 하고 기술이 직원, 고객, 사회 전반에 미치는 영향을 고려할 수 있습니다. 이 목표를 통해 직원들이 공통된 인식을 갖게 되므로 비즈니스의 모든 수준에서 AI 원칙을 적용할 수 있습니다.

책임감, 책무성, 투명성, 권한 부여, 포용성이라는 Salesforce의 신뢰할 수 있는 AI 원칙 5가지를 나타내는 일련의 파란색 선 아이콘.

영감을 얻으려면 Salesforce의 신뢰할 수 있는 AI 원칙을 확인해 보세요. 하지만 여러분 조직의 AI 원칙은 기업의 사명 및 가치에 맞게 조정되어야 한다는 점을 명심하세요. 다른 조직과 약간 겹치는 것은 정상이지만, 자신만의 원칙을 개발하고 이해당사자의 동의를 구하고 이러한 가치를 공개적으로 약속하는 작업을 건너뛰지 마세요.

참고

원칙은 훌륭한데, 이를 어떻게 책임감 있는 AI 관행으로 전환할 수 있을까요? 대부분의 조직은 임시방편적인 방식으로 AI를 관리하기 시작하여 그 노력이 점차 공식화됩니다. 자세히 알아보려면 Salesforce의 AI 윤리 성숙도 모델을 확인해 보세요.

규제 환경 조사

Coral Cloud의 리더십 팀은 본격적으로 거버넌스를 시작할 준비가 되었지만, 모두의 마음 속에는 'AI 규정은 뭐지? 실제로 법에서 요구하는 것은 뭐지?'라는 몇 가지 궁금증이 생깁니다.

현재 AI 관련 규정은 지역과 산업에 따라 다르게 적용되는 새로운 지침과 정책의 조각 모음과 같은 상황입니다. 정부와 규제 기관이 빠르게 발전하는 기술을 따라잡기 위해 노력하고 있어서 몇 년 후에는 규제가 어떻게 될지 정확히 예측하기 어렵습니다.

불확실한 상황이지만 선제적으로 취할 수 있는 몇 가지 예방 조치가 있습니다. 이 유닛의 모범 사례를 따르고 AI 규제 동향에 대한 최신 정보를 확인하세요. 규제 기관과 산업 협회의 최신 정보를 검토하여 변경 가능성이 있는 법률에 대한 인사이트를 조기에 확보하고 새로운 요구 사항이 생길 경우 지원 및 자원을 준비할 수 있습니다.

조직의 AI 사용 현황 파악

Coral Cloud의 거버넌스를 위한 노력을 진행하기 위해 Alex는 현재 조직이 AI를 어떻게 사용하고 있는지 목록화할 것을 권장합니다.

위험의 원인이 무엇인지 알기 전까지는 위험을 제대로 평가하기 어렵습니다. 따라서 모든 AI 도구의 목록을 작성하여 비즈니스 프로세스에 통합된 정도를 파악하는 것이 좋습니다.

  • AI 기술 파악: 간단한 자동화 도구부터 복잡한 머신 러닝 모델까지 모두 포함하여 현재 사용 중인 모든 AI 기술의 목록을 작성합니다. 타사 서비스 및 소프트웨어에 통합된 AI도 포함시켜야 합니다.
  • 사용 사례 문서화: 각 AI 기술에 대해 구체적인 사용 사례를 문서화합니다. 각 AI 솔루션의 기능과 사용하는 이유를 파악하면 영향과 중요성을 평가하는 데 도움이 됩니다.
  • 데이터 플로 매핑: 각 AI 애플리케이션에서 데이터가 어떻게 오가는지 추적합니다. 여기에는 입력 데이터의 소스, AI가 수정하거나 분석하는 내용, 출력 데이터를 전송하는 위치가 포함됩니다.
  • 소유권 설정: 각 AI 도구의 소유권을 특정인 또는 특정 팀에 할당합니다. 각 도구의 책임자를 알면 책무성이 확보되고 향후 감사 및 평가를 간소화할 수 있습니다.
  • 주기적으로 업데이트: 새로운 AI 배포를 반영하거나 기존 배포에 변경 사항을 반영하도록 업데이트하여 AI 재고를 최신 상태로 유지합니다. 이렇게 하면 재고의 관련성이 유지되고 지속적인 규정 준수에 유용합니다.

Coral Cloud의 리더십 팀은 재고를 통해 조직이 현재 AI를 사용 중인 모든 공식적인 방법을 파악할 수 있다고 확신합니다. 하지만 무단 사용은 어떨까요? 섀도우 AI라고도 하는 미승인 AI 도구는 비즈니스에 상당한 위험을 초래할 수 있습니다. 섀도우 AI로 인한 심각한 문제를 방지하는 방법에 대한 CIO 매거진 기사를 확인해 보세요.

참고

회사에서 이미 상당한 수의 AI 도구를 사용하고 있다면 재고를 작성하는 데 다소 시간이 걸릴 수 있습니다. 그러나 재고 프로세스가 조직이 AI 사용 사례 및 실험을 탐색하는 데 방해가 되어서는 안 됩니다. 모든 AI 파일럿 프로젝트에 대한 위험 평가를 수행하고, 동시에 전사적인 AI 감사 작업을 진행해야 합니다.

AI 위험 평가

이제 Coral Cloud의 AI 재고를 마련했으니 팀은 AI로 인한 조직의 위험을 평가할 수 있습니다. 이는 거버넌스를 수립하기 위한 중요한 단계이지만, 규제 요구 사항에 대비하는 데에도 도움이 될 수 있습니다. EU AI 규제법과 같은 일부 정책은 기술 관리에 대해 위험 기반 접근 방식을 취합니다. 따라서 위험 평가 프로세스를 조기에 구현하면 규정을 준수하는 데 더 유리한 위치에 서게 됩니다.

Alex와 AI 리더십 팀이 조직의 AI 위험을 평가하는 방법은 다음과 같습니다.

위험 요소 파악 및 분류

AI 재고를 검토합니다. 모든 사용 사례에 대해 잠재적인 위험을 브레인스토밍합니다. 미처 생각하지 못한 위험을 발견할 수 있으므로 조직 내 여러 부서의 이해당사자가 참여하도록 합니다. 목록이 작성되면 위험을 기술, 윤리, 운영, 평판, 규제 등과 같은 논리적인 그룹으로 분류합니다. 해당 비즈니스에 적합한 범주를 사용합니다.

영향 및 가능성 평가

각 위험에 대해 위험이 발생할 경우 비즈니스에 미치는 잠재적인 영향을 평가합니다. 그런 다음 각 위험이 발생할 가능성을 판단합니다. 이러한 요소들은 낮음, 중간, 높음으로 평가할 수 있습니다. 기록 데이터, 업계 벤치마킹, 전문가 의견은 이러한 평가를 하는 데 많은 도움이 됩니다.

위험 우선 순위 지정

영향과 가능성을 사용하여 위험에 대한 우선 순위를 지정합니다. 일반적인 방법은 영향에 대한 가능성을 표시하는 위험 매트릭스를 사용하여 큰 영향을 미치고, 가능성이 높은 위험에 집중하는 것입니다.

어떻게 시작해야 할지 잘 모르겠다면 미국 국립표준기술원(NIST) AI 리소스 센터 사이트에서 Google DeepMind AI 위험 관리 프레임워크 템플릿을 다운로드하거나 온라인에서 다른 사례를 찾아보세요. 모든 조직은 지역, 산업, 사용 사례, 규제 요구 사항을 포함할 수 있는 특정 상황에 맞는 프레임워크를 개발해야 한다는 점을 명심하세요.

위험 완화 전략 개발

이제 Coral Cloud의 AI 위원회가 평가를 완료했으니 이러한 모든 위험을 완화하는 데 도움이 되는 몇 가지 전략을 실행할 준비가 되었습니다. 다음은 다양한 위험 유형에 대한 안전 장치의 몇 가지 예시인데, 이 목록에 모든 것이 포함된 것은 아닙니다.

위험 유형

일반적인 위험 완화 전략

기술 및 보안

  • 보안 정책 및 프로토콜
  • 이상 징후 탐지 시스템 및 대체 옵션
  • 보안이 유지된 AI 인프라, 테넌시, 호스팅
  • 사이버 보안 레드티밍

데이터 및 개인정보보호

  • 액세스 제어
  • 데이터 익명화 및 암호화 기술
  • 정기적인 데이터 감사
  • 데이터 오용 정책
  • 데이터 품질 표준
  • 데이터 정제 및 검증 프로세스

윤리 및 안전

  • 책임감 있는 AI 원칙
  • 사용 제한 정책
  • 윤리 레드티밍
  • 편향 평가 및 완화 도구
  • 모델 벤치마킹
  • 모델 투명성(설명 가능성, 인용 등)
  • AI 생성 컨텐츠에 워터마크 표시
  • 피드백 체계
  • 감사 로그

운영

  • 위험 평가
  • 사고 대응 플랜
  • 변경 관리
  • 문서화 및 전사적 교육
  • 지표 및 모니터링
  • 새로운 AI 제품 및 기능에 대해 내부적으로 윤리 검토

규정 준수 및 법률

  • 규정 준수 프로토콜 및 교육
  • 법률 자문 및 계약

Alex와 Coral Cloud AI 리더십 팀의 다른 팀원들은 모든 AI 관련 위험을 피할 수는 없다는 점을 알고 있습니다. 대신, 조직이 위험을 효과적으로 파악하고 관리할 수 있다는 확신을 줄 수 있는 프로세스와 도구를 개발하는 것이 목표입니다. 여러분이 속한 조직의 AI 거버넌스를 구현하는 방법에 대해 알아보고 싶은 경우, 세계경제포럼의 구현 및 자가 평가 가이드를 확인해 보세요.

거버넌스 관행 개선

Coral Cloud의 AI 위원회는 거버넌스가 지속적인 프로세스라는 것을 알고 있습니다. 조직이 위험 관리 능력을 향상하고 변화하는 규제 환경에 더 잘 적응하기 위해 할 수 있는 일은 다음과 같습니다.

  • 훈련 및 교육: AI 규정 준수 교육을 구현하고 교육 프로그램의 성과를 측정합니다. 윤리적 AI 문화를 조성하고 팀이 자신의 업무가 미칠 수 있는 광범위한 영향을 고려하도록 권유합니다.
  • 모니터링 및 검토: 실행한 위험 관리 전략의 효과를 정기적으로 모니터링하고 필요에 따라 조정합니다. 이는 새로운 위험이 등장하고 기존 전략을 개선해야 할 때 매우 중요합니다.
  • 문서화 및 보고: 모든 위험 완화 활동에 대해 자세하게 기록합니다. 이러한 문서화는 규정 준수에 필수적이며 내부 감사에 도움이 됩니다. 거버넌스 이니셔티브에 대한 지표를 개발하고 이해당사자에게 결과를 보고합니다.

다음에는 AI 전략에서 가장 흥미로운 요소 중 하나인 AI 사용 사례 파악 및 우선 순위 지정에 대해 알아보겠습니다.

리소스

Salesforce 도움말에서 Trailhead 피드백을 공유하세요.

Trailhead에 관한 여러분의 의견에 귀 기울이겠습니다. 이제 Salesforce 도움말 사이트에서 언제든지 새로운 피드백 양식을 작성할 수 있습니다.

자세히 알아보기 의견 공유하기