Skip to main content
Dreamforce가 9월 17일부터 19일까지 샌프란시스코에서 열립니다. 지금 바로 등록하셔서 DF24TRAIL20 코드를 사용해 20%의 할인 혜택을 받으세요

생성형 AI의 기술 협력체계 이해하기

학습 목표

이 유닛을 완료하면 다음을 수행할 수 있습니다.

  • 빠른 생성형 AI 개발에 기여하는 주요 구성 요소를 파악할 수 있습니다.
  • 생성형 AI 기술 스택을 구성하는 기술 유형을 설명할 수 있습니다.
  • 생성형 AI에 대한 기업들의 일반 우려 사항에 대해 설명할 수 있습니다.

생성형 AI 학습 강화하기

생성형 AI에는 매우 짧은 시간 동안 수많은 기능이 적용되었습니다. 개선은 매우 빠른 속도로 진행되었고 이는 크게 세 가지 요인에 기인합니다. 첫 번째, 방대한 양의 학습 데이터를 사용할 수 있다는 점입니다. 이전 유닛에서 언급했듯이 인터넷상의 10억 개가 넘는 웹 페이지는 샘플을 작성할 수 있는 훌륭한 소스입니다. 하지만 데이터는 활용할 수 있는 방법이 있을 경우에만 유용합니다. 두 번째, 큰 변화는 바로 학습이 개선되었다는 것입니다.

인공 지능 기초에서 학습한 내용에 따라 연구자들은 정교한 수학을 사용하여 AI 모델을 학습시키는 신경망을 설계합니다. 신경망의 아키텍처는 지속적으로 발전하고 있는 연구 분야입니다. 2017년, Google 연구원들은 대규모 언어 모델 학습에 관한 획기적인 논문을 발표했습니다. 이들은 트랜스포머라는 새로운 AI 아키텍처를 제안했습니다. 상상할 수 있겠지만, 연구의 세부적인 내용은 매우 복잡합니다. 간단하게 요약하자면 이 새로운 아키텍처는 단어가 텍스트 블록 내에서 멀리 떨어져 있더라도 단어 간 핵심 관계를 식별할 수 있었습니다. 또한 수많은 단어를 처리한 후에도 이러한 연관성을 유지할 수 있었습니다.

새로운 트랜스포머 아키텍처는 생성형 AI의 급속한 발전의 세 번째 주요 요소인 계산 능력에 대해 설명해 줍니다. AI 모델 학습의 기반이 되는 수학을 수행하려면 방대한 처리 능력이 필요합니다. 현존하는 AI 모델은 일련의 계산을 차례로 실행해야 하는 방식으로 설계되었습니다. 하지만 트랜스포머 아키텍처는 여러 개의 개별적인 동시 계산이 가능하다는 점에서 차이점을 보입니다.

즉, 한 컴퓨터 프로세서가 첫 번째 계산을 수행하는 동안 다른 프로세서가 동시에 두 번째 계산을 수행할 수 있습니다. 이 방식을 병렬 컴퓨팅이라고 하며, 이를 통해 트랜스포머를 학습시키는 데 걸리는 시간을 현저히 줄일 수 있습니다. 게다가 최근에는 병렬 컴퓨팅을 수행할 수 있는 프로세서가 훨씬 더 강력하고 풍부해졌습니다.

데이터, 아키텍처, 컴퓨팅의 이 세 가지 요소는 한데 모여 매우 뛰어난 대규모 언어 모델을 학습하는 데 적합한 조건을 구성하였습니다. 가장 큰 LLM 중 하나는 생성형 사전 학습 트랜스포머의 약자인 GPT 언어 모델입니다. 즉, 텍스트 관련 컨텐츠를 생성하는 데 활용할 수 있도록 이미 학습된 모델입니다.

새로운 협력체계

이미 인터넷상에는 생성형 AI를 직접 사용해 볼 수 있는 수백 개의 사이트가 있습니다. 이러한 사이트 중 하나를 방문하더라도 방대한 기술 중 일부일 뿐인것이죠. 그리고 이러한 기술은 다양한 소스로부터 기인할 수 있습니다. 멋진 생성형 AI 경험을 대중에게 제공할 수 있도록 해주는 기술 스택을 살펴보겠습니다.

  • 빙산의 가장 아랫부분이라고 할 수 있는 컴퓨팅 하드웨어 공급업체부터 살펴보겠습니다. LLM을 학습시키는 일은 트랜스포머를 학습시키는 경우에도 엄청난 양의 컴퓨팅 성능을 필요로 할 수 있습니다. 또한 학습이 완료된 후 모델을 실제로 사용하기 위한 요청을 처리하는 데에도 컴퓨팅 성능을 필요로 합니다. 기술적으로는 모든 컴퓨팅 하드웨어에서 AI 모델을 학습시킬 수 있지만 병렬 컴퓨팅에 탁월한 프로세서가 이상적입니다. 오늘날 AI 컴퓨팅의 가장 대중적인 이름은 Nvidia입니다.
  • 다음은 개발자가 클라우드 배포 모델에서 컴퓨팅 하드웨어를 활용할 수 있는 클라우드 플랫폼입니다. 개발자는 특정 프로젝트에 필요한 시간 동안 플랫폼을 대여할 수 있으며, 이 플랫폼은 연결된 시스템 전체에 컴퓨팅 시간 요청을 효율적으로 분산할 수 있습니다. 이 분야의 선두 기술 공급업체로는 Google, Amazon, Microsoft, Oracle이 있습니다.
  • LLM을 포함한 AI 모델은 그 다음 계층입니다. 이러한 모델은 연구 기법을 통해 심혈을 기울여 고안되며 공개/비공개로 큐레이션된 데이터를 조합하여 학습됩니다. 개발자는 애플리케이션 프로그래밍 인터페이스(API)를 통해 LLM에 연결할 수 있으므로 자체 애플리케이션에서 NLP의 모든 기능을 활용할 수 있습니다. 액세스할 수 있는 학습된 AI 모델을 일반적으로 기본 모델이라고 합니다. 이러한 모델은 API를 통해 액세스할 수 있으므로 개발자는 필요에 따라 한 기본 모델에서 다른 기본 모델로 간편하게 전환할 수 있습니다. 기본 모델의 몇 가지 예에는 GPT4, Claude, Stable Diffusion, LLaMA가 있습니다.
  • 다음 계층은 인프라 최적화로, 핵심은 한층 더 효율적인 고품질의 모델 학습을 위한 도구와 서비스를 제공하는 데 있습니다. 예를 들어, 어떤 서비스는 학습을 위해 완벽하게 큐레이션된 데이터 집합을 제공할 수 있습니다. 또 다른 서비스는 생성된 컨텐츠의 정확성을 테스트하기 위한 분석을 제공할 수 있습니다. 또한 특정 기업의 요구 사항을 더 잘 충족하고자 특정 독점 데이터로 기본 모델을 세부적으로 조정할 수도 있습니다. 이곳은 수많은 기업들이 다양한 최적화 서비스를 제공하고 있는 AI 협력체계의 분주한 공간입니다.
  • 마지막으로, 빙산의 꼭대기인 애플리케이션으로 돌아왔습니다. 모든 종류의 개발자는 앱의 최적화 서비스와 기본 모델을 활용할 수 있습니다. 이미 LLM 기반의 독립형 도구와 주류 애플리케이션용 플러그인이 등장하고 있습니다.

AI 기술 스택 다이어그램

발전을 거듭하는 기술 기업 협력체계는 지난 몇 년 동안 놀라운 속도로 성장했습니다. 일부 회사는 특정 부문에서 특화되어 있습니다. 예를 들어, 기본 모델 분야의 한 기업은 차별화를 위해 더욱 새롭고 개선된 성능의 모델을 학습시키는 데 집중할 수 있습니다. 다른 기업들은 기술 스택의 여러 계층을 아우르는 솔루션을 개발함으로써 애플리케이션에 사용할 자체적인 독점 LLM을 개발할 수 있습니다.

이제 수많은 기업들이 AI를 통해 할 수 있는 것들을 파악하기 시작했습니다. AI 기술에 대한 전례 없는 수요를 생각하면 기업이 여러 수준의 AI 기술 스택에서 두각을 나타낼 수 있는 기회는 무궁무진합니다.

생성형 AI 대한 일반적인 우려

생성형 AI는 사람들이 컴퓨터와 상호 작용하는 방식에 많은 변화를 가져올 것입니다. 어떠한 혁신적인 기술이 등장하더라도 이러한 기술의 한계와 우려의 원인을 이해하는 것이 중요합니다. 다음은 생성형 AI의 주요 우려 사항 몇 가지입니다.

환각: 생성형 AI는 예측의 또 다른 형태이며, 예측이 틀릴 수도 있다는 사실을 기억하세요. 사실에 근거한 예측 반응과 다른 생성형 AI의 예측을 환각이라고 합니다. 이러한 오류는 학습 데이터가 불완전하거나 편향된 경우나 모델이 적절히 설계되지 않은 경우 등 몇 가지 이유로부터 기인합니다. 즉, AI가 생성한 텍스트는 시간이 걸리더라도 컨텐츠가 사실에 부합하는지 확인해야 합니다.

데이터 보안: 기업은 생성형 AI 라이프사이클의 두 가지 지점에서 독점 데이터를 공유할 수 있습니다. 첫째, 기본 모델을 세부적으로 조정하는 경우입니다. 둘째, 민감한 데이터가 포함된 요청을 처리하기 위해 실제로 모델을 사용하는 경우입니다. AI 서비스를 제공하는 기업은 신뢰를 기반으로 하는 것이 가장 중요하며, 데이터가 항상 보호된다는 것을 입증해야 합니다.

표절: 이미지 생성을 위한 LLM과 AI 모델은 일반적으로 공개적으로 사용 가능한 데이터를 기반으로 학습됩니다. 모델이 특정 스타일을 학습하고 해당 스타일을 복제할 가능성이 있습니다. 기본 모델을 개발하는 기업은 생성된 컨텐츠에 변형을 추가하는 조치를 취해야 합니다. 또한, 컨텐츠 제작자의 요청에 따라 학습 데이터를 큐레이팅하여 샘플을 제거해야 할 수도 있습니다.

사용자 스푸핑: 오늘날 AI가 생성한 사진으로 그럴듯한 온라인 프로필을 만드는 것이 매우 간편해졌습니다. 이러한 가짜 사용자는 실제 사용자(및 다른 가짜 사용자)와 매우 사실적인 방식으로 상호 작용할 수 있습니다. 따라서 기업은 자체 봇 컨텐츠를 홍보하는 봇 네트워크를 식별하기 어렵게 됩니다.

지속 가능성: AI 모델을 학습시키는 데는 엄청난 컴퓨팅 성능이 필요하며, 연산을 수행하는 프로세서를 실행하려면 많은 실제 전력이 필요합니다. 모델의 규모가 커질수록 탄소 발자국도 커집니다. 다행히도 일단 모델을 학습시키면 요청을 처리하는 데 비교적 적은 전력이 필요합니다. 그리고 재생 에너지는 AI 도입만큼이나 빠르게 확장되고 있습니다!

요약

생성형 AI는 기업과 개인 모두에게 모든 종류의 언어 기반 작업을 지원할 수 있습니다. 수많은 데이터, 똑똑한 AI 아키텍처, 방대한 컴퓨팅 기능의 융합은 생성형 AI 개발과 AI 협력체계의 성장을 가속화했습니다.

리소스