Skip to main content

지도 학습 vs 딥러닝 vs 강화 학습

지도 학습, 딥러닝, 강화 학습의 차이를 쉽게 설명합니다. AI가 레이블, 신경망, 보상을 활용해 학습하는 방식을 살펴보고, 딥 강화 학습 사례도 함께 제공합니다. 이 글은 AI 번역본입니다. 오역이 있을 수 있으니 댓글로 알려 주세요.
Created on September 12|Last edited on September 12
혹시 어떻게 …라고 궁금해한 적 있나요? AI 시스템이 자동차 운전 방법을 학습한다, 체스 같은 복잡한 게임을 숙달하거나, 더 나아가 질문에 대화체로 답합니다비밀은 마법이 아닙니다. 핵심은 어떻게 학습시키느냐입니다. AI는 다양한 전략으로 학습합니다. 때로는 레이블이 달린 예시를 공부하고, 때로는 복잡한 신경망으로 정교한 패턴을 찾아내며, 때로는 순수한 시행착오를 통해 배웁니다.
이 글에서는 오늘날 가장 인상적인 AI 시스템을 뒷받침하는 세 가지 핵심 접근 방식을 살펴봅니다:
  • 지도 학습(SL): 정답이 알려진 예시로부터 학습하기
  • 딥러닝(DL): 특히 원시 데이터에서 복잡한 패턴을 추출하기 위해 딥 신경망을 사용하기.
  • 강화 학습(RL): 환경과 상호작용하며 피드백을 받아 최적의 행동을 학습하기.
각 방법이 어떻게 작동하는지, 보통 언제 사용하는지, 무엇이 다른지, 그리고 결정적으로 이들이 어떻게 함께 작동해 진정한 지능형 시스템을 만들어 내는지를 차근차근 살펴보겠습니다.


이 글에서 다룰 내용



전반적 구도: AI, 머신러닝, 그리고 학습 패러다임

먼저 개념의 위치를 잡아봅시다. 인공지능(AI)은 지능적인 행동을 보이는 기계를 만들려는 광범위한 분야입니다. 그 안에서 머신러닝(ML)은 모든 가능한 상황을 일일이 프로그래밍하는 대신, 데이터로부터 학습하는 시스템을 구축하는 데 초점을 맞춘 하위 분야입니다. 이러한 시스템은 패턴을 식별하고 경험을 바탕으로 시간이 지날수록 성능을 개선합니다.
ML 내부에는 서로 다른 학습 전략, 즉 학습 패러다임이 있습니다. 위에서 간략히 언급했듯, 대표적인 두 가지 패러다임은 다음과 같습니다:
  • 지도 학습 레이블이 있는 예시를 바탕으로 입력에서 출력으로의 매핑을 학습합니다.
  • 강화 학습 상호작용을 통해 보상을 극대화하면서 일련의 결정을 내리는 방법을 학습합니다.
이러한 패러다임들과 나란히, 딥러닝이 두드러집니다. 딥러닝은 깊은 인공 신경망을 활용하는 강력한 머신러닝 기법의 하위 분야입니다. 신경망딥러닝은 오늘날 매우 중요한 역할을 하며, 특히 이미지나 텍스트처럼 복잡하고 비정형적인 데이터를 다룰 때 정교한 지도 학습과 강화 학습 애플리케이션을 구동하는 핵심 엔진이 되는 경우가 많습니다.

지도 학습

지도 학습은 레이블이 있는 데이터로 모델을 학습시키는 방법으로, 데이터셋의 각 입력이 정답 출력과 짝지어져 있다는 뜻입니다. 목표는 모델이 입력과 출력 사이의 관계를 학습하여, 보지 못한 새로운 데이터에 대해서도 정확한 예측을 할 수 있도록 하는 것입니다.
동물 이름을 유치원생에게 가르친다고 상상해 보세요. 강아지 사진을 보여 주며 “강아지”라고 말하고(입력: 사진, 레이블: “강아지”), 고양이 사진을 보여 주며 “고양이”라고 말합니다. 아이는 그림과 이름을 연결해 학습합니다. 이것이 한마디로 말해 지도 학습입니다.
목표는 모델이 입력과 출력 사이의 근본적인 관계를 충분히 잘 학습하여, 명시적으로 가르치지 않은 새로운 데이터에 대해서도 정확한 예측을 할 수 있게 만드는 것입니다. 학습 과정에서 모델은 자신의 예측과 실제 레이블 간의 차이를 최소화하도록 매개변수를 조정합니다.
지도 학습의 과제는 크게 두 가지 유형으로 나눌 수 있습니다:
  • 분류: 입력을 범주에 할당합니다. 예: 스팸 감지 또는 이미지 인식.
  • 회귀: 연속적인 값을 예측합니다. 예: 주택 가격 추정 또는 매출 예측.
현실 세계의 활용 예시는 다음과 같습니다:
  • 이미지 인식: 모델은 수백만 장의 라벨된 이미지(예: “개”, “자전거”)로 학습하여 새로운 이미지를 인식합니다.
  • 스팸 필터링: 라벨된 이메일로 학습하여 스팸과 정상 메시지를 구분합니다.
지도 학습은 많은 핵심 AI 시스템을 구동하며, … 음성 인식 그리고 감성 분석 의료 진단과 금융 리스크 모델링하지만 고품질의 라벨링된 데이터에 크게 의존하며, 이는 수집하는 데 비용이 많이 들고 시간이 오래 걸릴 수 있습니다.

딥 러닝

딥 러닝은 다층 신경망을 사용해 데이터로부터 표현을 자동으로 학습하는 머신 러닝의 한 분야입니다. 이미지, 오디오, 자연어처럼 대규모 비정형 데이터를 다루는 작업에 특히 적합합니다. 이러한 인공 신경망은 여러 층의 노드가 쌓인 구조로 이루어지며, 각 층은 점점 더 추상적인 특성을 학습합니다.
출처
얼굴을 알아보는 과정을 떠올려 보세요. 우리는 개별 픽셀을 의식적으로 처리하지 않습니다. 뇌는 모서리, 질감, 형태(예: 눈과 코) 같은 특징을 처리하고, 그것들을 결합해 하나의 개념(얼굴)으로 인식합니다. 딥 러닝 네트워크도 이와 비슷하게 작동합니다:
  • 초기 층 모서리나 색상 같은 단순한 특징을 감지할 수 있습니다.
  • 중간 층 이들은 이를 결합해 형태나 질감을 인식할 수 있습니다.
  • 더 깊은 층 이들은 이러한 형태를 통합해 얼굴, 자동차, 특정 단어 같은 복잡한 객체를 식별할 수 있습니다.
원시 데이터에서 직접 관련 특징을 자동으로 학습하는 능력은 딥 러닝의 핵심 장점입니다. 전통적인 머신러닝은 종종 사람이 중요한 입력 특징을 선별하고 설계하는 수작업의 특징 공학을 필요로 합니다. 딥 러닝은 이를 자동화해, 네트워크가 스스로 가장 예측력이 높은 표현을 찾아내도록 합니다.
그러나 딥 러닝 모델은 일반적으로 다음을 요구합니다:
  • 대규모 데이터셋: 과적합 없이 복잡한 패턴을 포착하기 위해.
  • 높은 연산 성능: 특히 학습 단계에서는 GPU나 TPU를 사용합니다.

트랜스포머 혁명과 LLM의 부상

딥 러닝에서의 주요 돌파구는 다음의 도입이었습니다 트랜스포머 아키텍처, 대규모 언어 모델(LLM)의 토대가 되었으며, GPT-4o 그리고 클로드.
트랜스포머는 어텐션 메커니즘을 사용해 텍스트의 장기 의존성을 처리하고, 라벨이 없는 데이터에 대한 대규모 사전 학습을 지원합니다. 이러한 모델은 흔히 파인튜닝된 특정 작업에 맞게 지도 학습 또는 인간 피드백을 통한 강화학습(RLHF).


이러한 대규모 모델(수천억 개의 파라미터를 갖는 경우가 많음)은 반지도 학습 형태의 사전 학습 단계에서 인터넷의 방대한 텍스트 데이터로부터 학습합니다. 모든 것에 대해 명시적인 레이블을 받지는 않지만, 마스킹된 단어 또는 시퀀스에서 다음 단어를 예측하는 방식으로 학습합니다.
이 과정은 모델이 문법, 문맥, 사실, 나아가 추론 능력까지 내재화하도록 하여, 오늘날 우리가 보는 인상적인 언어 생성, 요약, 번역 능력을 가능하게 합니다.
출처

강화학습

강화학습은 다음과 같은 방식의 학습 접근 방식입니다. 에이전트 환경과 상호작용하며 보상이나 페널티 형태의 피드백을 받아 의사결정을 학습합니다. 시간이 지남에 따라 장기 누적 보상을 극대화하는 행동을 선택하는 방법을 익히게 됩니다.

강화학습은 인간과 동물이 시행착오를 통해 학습하는 방식에서 영감을 받았습니다.
장애물 코스를 헤쳐 나가는 로봇 개를 떠올려 보세요. 지도는 없고, 올바르게 행동하면 보상(점수)을 받고 실패하면 페널티를 받습니다. 시간이 지나면서 점수를 극대화할 최적의 전략을 스스로 학습하게 됩니다.
RL에서는 에이전트가 환경과 상호작용합니다:
  • 현재 상태를 관측합니다. 상태
  • 선택합니다 행동
  • 받습니다 보상
  • 로 이동합니다 새로운 상태

출처
에이전트의 목표는 시간이 지남에 따라 총 보상을 극대화하도록 행동을 선택하는 전략인 정책을 학습하는 것이다.
정식 RL 설정은 다음으로 모델링된다 마르코프 결정 과정 (MDP)가능한 상태, 행동, 보상, 전이(전환)를 정의한다.

강화학습이 실제로 적용되는 예시:

  • AlphaGo (Google DeepMind): 전문가 대국 데이터로 학습하는 지도학습과 자기 대국을 통한 강화학습을 결합하여 최정상급 인간 바둑 기사를 제압했다.
  • RLHF를 적용한 ChatGPT: 초기 학습 이후에는 인간 선호도로 학습된 보상 모델을 사용하여 PPO 같은 RL 알고리즘으로 어시스턴트의 응답을 파인튜닝한다.
그 밖의 활용 사례로는 로보틱스, 교통 최적화, 자원 할당, 개인화 추천 등이 있다.

강화학습의 실전 적용: 게임에서 언어까지



기타 적용 분야
RL은 눈에 띄는 AI 성과들의 배후에 있었다:
  • 복잡한 게임 정복하기(AlphaGo): Google DeepMind의 AlphaGo는 세계 바둑 챔피언을 상대로 역사적인 승리를 거두었다. 초기에는 인간 전문가 대국 데이터에 대한 지도학습(Supervised Learning, SL)으로 출발했지만, 진정한 돌파구는 강화학습(Reinforcement Learning, RL)에서 나왔다. AlphaGo는 자기 대국(self-play)으로 수백만 판을 치르며 승패 보상(win/loss reward)만을 신호로 학습했고, 그 과정에서 인간 직관을 넘어서는 전략을 스스로 발견했다. 이는 복잡한 전략적 문제 영역에서 RL의 강력을 선명하게 보여 준 사례다.
    
  • 언어 모델을 유용하게 만들기(ChatGPT와 RLHF): 반지도학습으로 학습된 기반 LLM은 지식은 많지만, 인간의 가치에 부합하는 유용하고 무해한 어시스턴트처럼 행동하는 방법을 본질적으로 알지는 못한다. 이를 보완하는 것이 인간 피드백을 통한 강화학습(RLHF)이다.
    • 선호도 수집하기: 사람이 다양한 프롬프트에 대해 LLM이 생성한 여러 응답을 순위 매긴다.
    • 보상 모델 학습하기: 이 순위 데이터는 별도의 모델을 학습시켜 사람이 어떤 응답을 어떻게 평가할지를 예측하게 한다.
    • RL로 파인튜닝하기: LLM(에이전트)은 프롬프트(상태)에 대해 응답(행동)을 생성한다. 보상 모델로부터 보상을 받고, Proximal Policy Optimization(PPO) 같은 RL 알고리즘을 사용해 예측된 인간 선호 점수가 최대화되도록 LLM을 파인튜닝한다. (참고: 이는 보통 모델이 명시적으로 지시를 따르는 법을 학습하는 초기의 지도 파인튜닝 단계를 거친 뒤에 수행된다.) RLHF는 ChatGPT와 같은 모델을 더 대화적이고 정렬되게 만드는 데 핵심적이었다.
  • 기타 활용 사례: RL은 로보틱스(조작 학습, 보행), 자율 시스템(교통 제어, 자율주행 의사결정), 자원 관리(데이터 센터, 공급망), 금융(알고리즘 트레이딩), 개인화(추천 시스템)에도 활용된다.
RL은 명시적 감독 신호가 없는 순차적 의사결정 문제에서 뛰어나며, 상호작용과 피드백으로부터 직접 최적의 전략을 학습한다.

접근 방식 비교

이제 SL, DL, RL을 살펴보았으니, 이들의 핵심 차이점을 분명히 정리해 보자.

강화학습과 지도학습 비교

강화학습과 지도학습의 핵심 차이는 피드백의 형태와 전체 목표에 달려 있다. 지도학습(SL)은 미리 존재하는 데이터셋의 명시적인 입력-출력 레이블을 사용해 오류를 최소화하면서 정확한 예측이나 분류를 학습하는, 일종의 교사 지도 학습 방식으로 작동한다. 반면 강화학습(RL)은 상호작용과 경험을 통해 학습하며, 환경으로부터 얻는 스칼라 보상 신호를 사용해 시간이 지남에 따라 누적 보상을 최대화하는 최적의 행동 순서(정책)를 찾아낸다. 즉, 각 단계마다 정답이 미리 주어지지 않은 상황에서 시행착오를 통해 학습하는 방식이다.
핵심 차이점을 다음과 같이 정리할 수 있다:
  • 피드백: 지도학습은 명시적인 입력-출력 레이블이 필요하다. 강화학습은 상호작용을 통해 얻는 스칼라 보상 신호로부터 학습한다.
  • 목표: 지도학습은 학습된 매핑을 바탕으로 정확한 예측이나 분류를 목표로 한다. 강화학습은 장기 보상을 최대화하기 위한 최적의 정책(행동의 순서)을 찾는 것을 목표로 한다.
  • 학습 신호: 지도학습은 예측값과 실제 레이블 사이의 오차를 최소화한다. 강화학습은 누적 보상을 최대화한다.
  • 데이터: 지도학습은 미리 존재하는 레이블된 데이터셋이 필요하다. 강화학습은 환경에서의 탐색을 통해 자체적으로 데이터를 생성한다.
  • 시나리오: 지도학습은 정답(ground truth)이 확보된 경우에 강점을 보인다(예: 이미지 분류, 스팸 탐지). 강화학습은 제어 문제, 게임 플레이, 로보틱스, 불확실성 하의 순차적 의사결정에서 뛰어난 성능을 발휘한다.
이러한 차이에도 불구하고 서로 배타적인 관계는 아니며, AlphaGo와 같은 시스템에서 보이듯이 때로는 효과적으로 결합될 수 있다.

강화학습 vs. 딥러닝

강화학습과 딥러닝을 비교하는 일은 다소 다르다. 두 방법은 직접 경쟁하는 패러다임이 아니라, 머신러닝의 서로 다른 측면을 대표하기 때문이다. 강화학습 은(는) 환경과의 상호작용과 보상을 통해 최적의 의사결정 시퀀스를 만들어 내는 데 초점을 맞춘 학습 프레임워크로 이해하는 것이 가장 적절하다. 딥러닝반대로, 딥 뉴럴 네트워크를 활용하는 강력한 기법들의 집합으로, 복잡한 패턴과 표현을 데이터를 통해 직접 학습하는 데 초점을 맞춘다. 대규모 데이터셋에서 지도 신호 또는 자기지도 신호를 사용해 예측 오류를 최소화하며 학습하는 경우가 많다.
근본적인 차이는 성격과 목적에 있다:
  • 본질: 강화학습은 보상을 통해 의사결정을 학습하는 데 초점을 둔 학습 프레임워크/패러다임이다. 딥러닝은 딥 뉴럴 네트워크를 사용하는 기법들의 집합으로, 주로 표현 학습과 패턴 인식에 초점을 맞춘다.
  • 입력/신호: 강화학습은 상호작용 과정에서 경험하는 희소한 보상으로부터 주로 학습한다. 딥러닝은 보통 대규모 데이터셋(종종 라벨이 있거나 자기지도 방식을 사용)을 통해 데이터 패턴에 기반한 예측 오차를 최소화하는 방식으로 학습한다.
  • 목표: 강화학습은 행동 선택을 위한 최적의 정책을 학습하는 것을 목표로 한다. 딥러닝은 복잡한 매핑 또는 유용한 데이터 표현을 학습하는 것을 목표로 한다.
  • 핵심 문제: 강화학습은 지연된 보상에 특정 행동을 연결하는 크레딧 할당 문제를 다룬다. 딥러닝은 복잡한 데이터를 의미 있게 해석할 수 있는 표현을 학습하는 문제를 다룬다.
중요하게도 DL의 기법은 RL 프레임워크 안에서 활용될 수 있으며, 이를 통해 딥 뉴럴 네트워크가 복잡한 상태와 행동을 다루는 데 필요한 핵심 함수 근사기로 작동한다. 이는 곧 딥 강화학습(Deep Reinforcement Learning)이라 불리는 강력한 결합으로 직접 이어진다.

딥 강화학습: 지각과 의사결정이 만나는 지점

딥러닝의 패턴 인식 능력에 강화학습의 의사결정 프레임워크를 결합하면 어떤 일이 벌어질까? 바로 딥 강화학습(DRL)이다. 이전에는 불가능하다고 여겨졌던 역량을 열어 준 강력한 융합이다.
  • 필요성: 전통적인 강화학습 방법은 환경의 ‘상태’가 복잡하고 고차원일 때, 예를 들어 비디오 게임 화면의 원시 픽셀이나 로봇 카메라의 센서 데이터처럼, 종종 어려움을 겪는다. 에이전트는 이처럼 밀려드는 데이터를 어떻게 효율적으로 처리해 상황을 파악하고 좋은 의사결정을 내릴 수 있을까?
  • 해결책: 딥 강화학습은 강화학습 루프 안에서 딥 뉴럴 네트워크를 강력한 함수 근사기로 활용한다. 뉴럴 네트워크는 에이전트의 ‘뇌’ 역할을 하며, 원시 감각 입력을 처리해 상태를 파악한 뒤 결정(행동 또는 가치 추정)을 출력한다.
  • 작동 원리:
    • 지각: 깊은 네트워크(예:" CNN (예: 이미지의 경우) 원시 상태 관측값(예: 화면 픽셀)을 입력으로 받는다.
    • 이해하기: 네트워크의 각 층은 현재 상황을 이해하기 위해 관련 특성을 자동으로 추출한다.
    • 의사결정/평가: 네트워크의 출력은 강화 학습 알고리즘에 정보를 제공하며, 각 가능한 행동을 취했을 때의 가치(기대되는 미래 보상)를 추정하는 방식으로 이를 수행할 수 있다(예: 딥 Q-네트워크 DQN) 또는 각 행동을 취할 확률을 직접 출력하는 방식(예: 정책 경사 방법처럼) PPO).

아타리의 돌파구: 픽셀로부터 배우기


  • 설정: 아타리 에뮬레이터에 연결된 AI 에이전트를 상상해 보자. 그 에이전트의 오직 입력은 게임 화면의 원시 픽셀 데이터(예: 84×84 픽셀 이미지)와 현재 게임 점수다. 이는 사전 지식 없음 게임의 규칙이나 목표, 혹은 패들·공·외계인 같은 객체가 무엇인지에 대한 이다.
  • 에이전트: Deep Q-Network 알고리즘을 사용했다. 이는 픽셀을 처리하기 위한 CNN과 Q-learning 기반 강화학습 접근을 결합한 것이다. CNN은 화면의 시각적 패턴을 해석하는 법을 학습했고, 그 Q-러닝 이 부분은 CNN의 해석을 바탕으로 어떤 조이스틱 동작(왼쪽, 오른쪽, 발사 등)이 더 높은 점수로 이어지는지 학습했다.
  • 학습: 처음에는 에이전트의 행동이 무작위이며, 마치 아기가 조작계를 이리저리 휘두르는 것과 같다. 브레이크아웃에서 우연히 공을 맞히거나 스페이스 인베이더에서 외계인을 쏴서 점수가 올라가는(양의 보상) 상황을 경험할 수 있다. 수백만 프레임과 수천 번의 플레이 세션 동안, 점수 변화에 의해 안내되는 시행착오를 통해 DRL 에이전트는 놀라울 정도로 효과적인 전략을 학습했다. 브레이크아웃에서는 인간 플레이어들에게 알려진 전략이지만, AI가 완전히 자율적으로 발견한 방식으로 벽돌 뒤로 공을 터널링하는 전술을 학습한 것으로 유명하다.
  • 결과: 이 단일 딥 강화학습 알고리즘은 수십 가지 서로 다른 아타리 게임을 학습해, 그중 다수에서 인간을 뛰어넘는 성능을 달성했다. 오직 픽셀과 점수 정보만으로 이룬 결과였다. 이는 기념비적인 성과로, AI가 수동 특성 공학 없이도 고차원 감각 입력으로부터 직접 복잡한 제어 정책을 학습할 수 있음을 보여줬다.



오늘날 딥 강화학습이 중요한 이유

원시 감각을 지능적인 의사결정과 연결하는 이 능력 때문에 오늘날 딥 강화학습이 특히 중요하다. 이는 다음과 같은 분야의 발전을 이끈다:
  • 로보틱스: 비전 또는 촉각 센서를 사용해 로봇이 복잡한 조작 기술을 학습할 수 있도록 한다.
  • 자율주행: 복잡한 센서 융합 데이터를 바탕으로 차량이 더 나은 주행 의사결정을 내리도록 돕는다.
  • 고급 게임 AI: 스타크래프트 II, 도타 2와 같은 복잡한 게임에서 더 현실적이고 도전적인 상대 또는 협력자를 만들어낸다.
  • 최적화: 시뮬레이션에서 복잡한 자원 할당 또는 스케줄링 문제를 해결한다.
  • LLM 정렬: 앞서 언급했듯이, PPO 같은 알고리즘은 Proximal Policy Optimization(PPO), 견고한 DRL 정책 경사법으로, 학습된 인간 선호도에 기반해 지시를 잘 따르고 더 도움이 되도록 ChatGPT와 같은 모델을 미세 조정하는 RLHF 과정의 핵심 구성 요소다. 한편 최신 기법인 Direct Preference Optimization(DPO) 명시적인 보상 모델과 이후의 RL 단계를 두지 않고도 유사한 정렬 목표를 보다 직접적으로 달성하려는 접근이 늘고 있지만, 인간 또는 환경의 피드백으로부터 학습하는 DRL이 마련한 토대는 정렬된 AI 시스템을 만드는 데 여전히 핵심적이다.
딥 강화학습은 복잡하고 잡음이 많으며 고차원적인 현실 세계에서 효과적으로 작동하는 에이전트를, 경험으로부터 직접 정교한 행동을 학습하도록 만들어 준다. 이는 현대 AI 연구와 개발의 초석으로, 지능형 기계가 달성할 수 있는 한계를 계속해서 넓히고 있다.

결론

우리는 현대 인공지능을 형성하는 세 가지 핵심 패러다임인 지도학습, 강화학습, 그리고 딥러닝을 함께 살펴보았다.
  • 우리는 어떻게 되는지 살펴보았다 지도학습 레이블이 달린 예시로 모델을 이끌어 예측이나 분류를 하도록 가르치는 교사처럼 작동한다.
  • 우리는 살펴보았다 강화학습 시행착오의 과정으로, 에이전트가 환경과 상호작용하며 보상을 극대화하기 위해 최적의 전략을 학습하는 것이다.
  • 그리고 우리는 깊이 살펴보았다 딥러닝, 딥 뉴럴 네트워크를 활용해 복잡한 패턴을 자동으로 추출하는 강력한 ML의 하위 분야로, 특히 이미지와 텍스트처럼 방대한 비정형 데이터에서 뛰어나다.
각 접근법은 고유한 강점을 지닌다. SL은 명확한 지도하에 예측에 뛰어나고, RL은 상호작용을 통해 최적 전략을 찾아내는 데 강하며, DL은 복잡한 원시 데이터를 이해하는 강력한 표현 능력을 제공한다.
서로 구별되지만, 이들이 함께 작동할 때 진정한 힘이 드러난다. 특히 딥 강화학습(DRL)은 DL의 지각 능력과 RL의 의사결정 프레임워크를 결합해, 복잡한 게임을 정복하는 일부터 현실 세계를 탐색하는 일에 이르기까지 한때 공상과학의 영역이었던 과제들에 AI가 도전할 수 있게 한다. 이 패러다임들을 이해하는 것은 AI가 어떻게 학습하고 지속적으로 진화하는지 제대로 이해하는 데 핵심적이다.

이 글은 AI 번역본입니다. 오역이 의심되는 부분은 댓글로 알려주세요. 원문 보고서는 아래 링크에서 확인할 수 있습니다: 원문 보고서 보기