Skip to main content

머신러닝 모델 초보자 안내

머신러닝 모델이 실제로 무엇인지 궁금해한 적이 있나요? 이 입문용 글에서는 ML 알고리즘과 모델의 개념을 소개합니다. 이 글은 AI 번역본입니다. 오역이 있을 수 있으니 댓글로 알려주세요.
Created on September 15|Last edited on September 15
이 글은 다음 분들의 매우 소중한 도움과 피드백이 없었다면 가능하지 않았을 것입니다 브라이언 비쇼프 그리고 스테이시 스브에틀리츠나야고맙습니다!

개요

이 글은 머신러닝 모델을 고수준에서 쉽게 소개하는 입문용 안내입니다.
선형대수, 기하학, 통계에 대한 기초 지식이 있으면 도움이 될 수 있지만 필수는 아닙니다. 이 글은 수학적 구현 세부사항을 다루지 않으며, 머신러닝에 익숙하지 않거나 처음 접하는 독자를 위해 쓰였습니다.
먼저 설명부터 시작합니다 알고리즘이란 무엇인가머신러닝 모델은 알고리즘의 한 유형이므로, 알고리즘이라는 개념을 이해하는 것이 모델이 무엇인지 제대로 이해하는 데 근본적입니다.
그다음으로, 머신러닝의 세 가지 주요 패러다임을 소개합니다 — 지도 학습, 비지도 학습, 그리고 r강화 학습 — 그리고 널리 사용되는 머신러닝 모델들에 대한 간단한 개요.
보너스로, 간단한 소개도 함께 제공합니다 딥러닝과 딥러닝 모델.
원하는 섹션으로 바로 이동할 수 있도록 목차를 준비했습니다. 즐겁게 읽으세요!

목차



알고리즘이란 무엇일까?

넓게 보면 알고리즘은 어떤 목표를 달성하기 위한 단계들의 순서, 즉 작업을 완료하거나 문제를 해결하는 방법을 설명하는 절차입니다. 알고리즘은 하나 이상의 입력을 받아, 명시된 지시 사항의 목록을 따라 하나 이상의 출력을 만들어 냅니다.
요리책의 레시피도 알고리즘입니다(“이 재료들을 이 순서대로 준비하면 원하는 음식을 만들 수 있다”). 아침 알람 시간을 정하는 것 역시 마찬가지입니다(“행사의 시작 시간에서 준비와 이동에 걸리는 시간을 빼라”).
위키백과의 “순서도이 글은 고장 난 전등을 어떻게 처리할지 결정하는 간단한 알고리즘을 보여 줍니다.
그렇다고 해도 대부분의 사람들은 “알고리즘”이라는 용어를, 알고리즘이 달성 방법을 설명하는 목표가 수학적 성격을 띠는 맥락에서 사용합니다. 예를 들어 “이 목록의 원소들을 원하는 순서로 정렬하라”와 같은 것이며, 이 목표를 이루기 위한 단계들 역시 마찬가지로 계산적입니다.
예를 들어, 1부터 100까지의 모든 정수, 즉 자연수를 적는다고 상상해 보세요. 아마 그렇게 생각하지는 않겠지만, 실제로는 다음과 같은 알고리즘 방식으로 하고 있을 것입니다:
  1. 시작 정수를 적으세요. 여기서는 1입니다.
  2. 이전 정수에 1을 더한, 즉 다음으로 큰 정수를 적으세요
  3. 마지막 정수, 여기서는 100에 도달할 때까지 2단계를 계속하세요.
  4. 더 이상 정수를 쓰지 마세요
컴퓨팅 맥락에서 “알고리즘”이라는 단어는 일반적으로 Python이나 C++ 같은 프로그래밍 언어로 표현된 알고리즘을 가리킵니다. 이렇게 코드로 구현된 알고리즘은 컴퓨터에서 실행할 수 있습니다. 평이한 자연어로 서술된 알고리즘은 보통 의사코드라고 부릅니다.
아래 블록들은 사용자가 제시한 숫자에 어떻게 응답할지 결정하는 알고리즘의 예시로, 각각 의사코드와 Python으로 구현되어 있습니다. 이 알고리즘에 따르면 숫자가 5, 6, 7, 8, 9, 10이면 딱 알맞습니다! 그렇지 않다면 그 숫자는 너무 크거나 너무 작습니다.
의사코드
Instruct the user to enter a number

If the number is larger than 10
then say "Too high :("
else, if the number is less than 5
then say "Too low :("
else, if the number has any other value
then say "Just right!"
파이썬
num = int(input("Enter a number:"))
if num › 10:
print ("Too high :(")
elif num < 5:
print ("Too low :(")
else:
print ("Just right!")
이 글 전반에서 우리는 “알고리즘”이라는 단어를 넓은 의미와 프로그래밍 맥락의 의미 둘 다로 사용할 것입니다. 다만, 무엇이 정확히 알고리즘인지 아닌지에 너무 집착하지는 마세요! 사실은 “알고리즘”에 대한 엄밀한 정의 없음, 그리고 “알고리즘”이라는 용어는 매우 다양한 맥락에서 사용할 수 있으며 실제로 그렇게 사용됩니다.

알고리즘은 어떻게 활용될까?

컴퓨터 과학, 더 나아가 머신러닝의 상당 부분은 인간의 목표를 컴퓨터가 알고리즘의 지시를 실행하여 달성할 수 있는 계산적 목표로 정식화하는 방법을 이해하는 데 있다.
예를 들어, A 지점에서 B 지점까지 가는 방법은 여러 가지가 있을 수 있지만, 그중 가장 좋은 방법은 무엇일까요?
이 질문을 탐색 문제로 정식화하고, 사용하여 다익스트라 알고리즘 이 두 지점 사이의 최단 경로를 찾기 위해서죠. 물론 현실에서는 최단 경로가 반드시 가장 빠른 경로는 아니며, 가장 빠른 경로가 꼭 “가장 좋은” 경로인 것도 아닙니다.
그럼에도 불구하고 Google Maps와 같은 경로 안내 서비스는 물리적 거리, 교통 상황, 사용자의 개인 선호도 등 이동 경로의 다양한 요소를 계산하거나 예측하는 여러 알고리즘을 조합해 최적의 길을 제안하기 위해 최선을 다합니다.

머신러닝 모델이란 무엇일까?

머신러닝 모델은 다음과 같은 알고리즘이다: 매개변수 어떤 알고리즘적·통계적 학습 과정을 통해 매개변수가 결정되거나 학습된 것이다. 실제로 모델은 명시적인 인간의 지시 없이도 특정 유형의 작업을 수행할 수 있는 컴퓨터 프로그램을 의미한다.
전통적인 프로그래밍에서는 개발자(사람)가 프로그램을 실행할 때 컴퓨터가 따라야 할 규칙의 집합을 명시하여 프로그램을 작성한다. 머신러닝에서는 실무자가 컴퓨터에게 학습 알고리즘을 데이터에 적용하도록 지시해, 그 학습 알고리즘이 — 컴퓨터(기계)를 통해 — 특정 기준을 충족하는 규칙의 집합을 만들어낼 때까지 모델을 학습시킨다.
이 규칙들의 집합이 바로 머신러닝 모델이다.
머신러닝과 머신러닝 모델이 매우 강력한 이유는, 학습 과정을 통해 모델이 배운 내용을 일반화하여 명시적으로 프로그래밍하지 않아도 문제를 해결할 수 있기 때문입니다. 모델은 심지어 새로운 데이터를 생성하는 방법까지 학습할 수 있습니다. DALL·E 2, Midjourney, 그리고 Stable Diffusion …인 확산 모델로, 올여름에 바이럴이 되었다 그들의 놀라운 예술 생성 능력 때문에.

머신러닝 모델과 알고리즘의 차이는 무엇인가?

머신러닝 모델은 알고리즘과 본질적으로 다르다는 오해가 흔하다. 사실, 머신러닝 모델은 곧 알고리즘이다. 더 구체적으로 말하면, 어떤 통계적 학습 과정을 통해 매개변수가 학습된 알고리즘을 뜻한다.
그렇다 하더라도, 머신러닝 모델 이다 모델을 학습시키는 통계적 학습 과정을 가리키는 일반 용어인 학습 알고리즘이나 최적화 알고리즘과는 다르다.
다음은 선형 회귀(학습 알고리즘)와 선형 회귀 모델(머신러닝 모델)의 차이를 보여 주는 예시이다:
  • 선형 회귀: 알고리즘이지만 모델은 아님
    • 입력: 종속 변수와 하나 이상의 독립 변수 사이의 잠재적 관계를 보여 주는 예시들로 구성된 데이터셋
    • 출력: 입력과 출력 사이의 관계를 가장 잘 근사하는 선형 방정식의 계수들(즉, 선형 회귀 모델)
  • 선형 회귀 모델: 알고리즘이자 모델
    • 입력: 하나 이상의 독립 변수
    • 출력: 종속 변수의 예측
실제로는 학습 알고리즘과 머신러닝 모델을 가리킬 때 같은 용어를 함께 쓰는 일이 흔하다. 예를 들어 “선형 회귀”라는 말은 앞서 언급한 최적의 직선을 찾는 기법을 의미할 수도 있고, 그 직선 자체(즉, 실제 모델)를 의미할 수도 있다.
또한 어떤 맥락에서는 특정 유형의 모델을 학습시키는 일반적인 기법, 즉 학습 알고리즘 자체를 이야기하는 편이 더 유용할 수 있다는 점을 기억하자. 예를 들어, 선형 회귀 은 선형 회귀 모델을 학습시키기 위한 알고리즘으로, 매번(상위 수준에서) 대체로 동일한 방식으로 각 모델을 학습시킨다.
다른 맥락에서는 특정 유형의 모델을 학습시키는 방법이 여러 가지일 수 있으므로, 모델과 그 모델이 수행하는 작업 유형에 대해 이야기하는 편이 더 유용할 수 있다. 예를 들어, 의사결정나무 대상 값을 (상위 수준에서) 대체로 비슷한 방식으로 예측하지만, 의사결정나무 자체는 서로 다른 학습 알고리즘으로 학습되었을 수 있다.

머신러닝 모델의 종류

머신러닝에는 세 가지 주요 패러다임이 있다: 지도 학습, 비지도 학습, 강화 학습.
  • 지도 학습: 라벨이 달린 데이터를 사용해 데이터의 특징들 간 관계를 학습하고, 이를 바탕으로 보지 못한 데이터나 미래의 데이터를 예측하는 과정.
  • 비지도 학습: 라벨이 없는 데이터를 사용해 데이터의 특징들 간 관계를 학습하고, 그로부터 의미 있는 정보를 추출하는 과정.
  • 강화학습: 환경 안에서의 행동을 통해 환경의 속성을 학습하고, 그에 따라 취해야 할 최적의 행동을 결정하는 과정.
다른 유형의 학습에는 지도 학습과 비지도 학습을 결합한 패러다임들이 포함되며, 예를 들어 반지도 학습 그리고 자기지도 학습, 그리고 폭넓은 개념들 전이 학습 그리고 온라인 학습.

지도 학습이란 무엇인가?

지도 학습에서는 기계 학습 알고리즘에 입력과 그에 대응하는 정답(레이블)으로 이루어진 데이터셋이 제공됩니다. 알고리즘의 목표는 입력과 출력 사이의 관계를 가능한 한 정확하게 모델링하는 것입니다.
이러한 레이블은 기계 학습 알고리즘이 모델링하려는 현실, 즉 “정답(ground truth)”으로 기능합니다. 만약 레이블이 나쁘다면—당신이 다루려는 현실을 반영하지 못한다는 의미에서— 사실 모델링하려는 현실을 반영하지 못한다면, 알고리즘이 만들어 내는 기계 학습 모델 역시 “나쁜” 모델이 될 것입니다.
일반적으로 “garbage in, garbage out”이라고 부르며, 질이 낮은 입력(나쁜 레이블)이 질이 낮은 출력(나쁜 예측)을 낳는다는 의미입니다.
예를 들어, 다가오는 시험을 준비한다면 모의고사를 풀고 채점을 해 볼 수 있습니다. 그런데 답안지가 틀려서, 실제로는 맞춘 문제를 틀렸다고 하거나 반대로 틀린 문제를 맞았다고 알려 준다고 상상해 보세요. 이런 답안지는 레이블이 매우 나쁜 셈입니다!

지도 학습 과제의 예

지도 학습 알고리즘이 모델링하는 관계는 일반적으로 두 가지 범주 중 하나에 속합니다: 회귀 또는 분류.
대체로 회귀의 목표는 내일의 주가나 고객이 특정 상품을 구매할 확률처럼 수치로 측정 가능한 값을 예측하는 것입니다. 분류의 목표는 이 유방 조직 샘플이 암성인지 양성인지, 혹은 이 동물이 어떤 견종인지 같은 범주형 값을 예측하는 것입니다. 참고: 이 동물이 개가 아닐 수도 있습니다! 이 경우에는 “개 아님”이 예측하기에 좋은 범주가 됩니다.
그렇다고 해서 다른 유형의 지도 학습 알고리즘이 없는 것은 아닙니다. 예를 들어, 선형 판별 분석 (LDA)는 지도 학습 기반의 차원 축소 알고리즘입니다. 차원 축소는 고차원 데이터를 저차원 데이터로 변환하는 과정으로, 보통 비지도 학습 과제로 간주됩니다.

회귀 알고리즘과 분류 알고리즘의 차이는 무엇인가요?

회귀와 분류는 서로 다른 두 가지 예측 과제입니다. 회귀는 가능한 값이 무한한 연속형 변수의 값을 예측합니다. 분류는 가능한 값이 유한한 변수의 값을 예측합니다.
  • 회귀 문제의 예시: 아파트의 월세(출력)를 해당 아파트의 면적, 위치, 연식, 편의시설 등 요소(입력)를 바탕으로 예측하기.
  • 분류 문제의 예시: 이메일이 스팸인지 아닌지 식별하기. 다시 말해, 이메일(입력)이 ‘스팸이다’ 클래스(가능한 출력 값)인지, 아니면 ‘스팸이 아니다’ 클래스(다른 한 가지 가능한 출력 값)에 속하는지 판별하기.

대표적인 지도 학습 알고리즘과 모델

이 섹션에서는 흔히 사용되는 지도 학습 알고리즘과 모델을 간략히 설명합니다.

선형 회귀

선형 회귀 는 회귀 문제에 사용되는 지도 학습 알고리즘입니다. 목표는 다음을 식별하는 것입니다 초평면 지정된 데이터셋에서 두 개 이상의 특성 간 관계의 값을 가장 잘 예측하여, 새로운 값을 예측하기 위한 것입니다.
선형 회귀에 대해서는 다음에서 더 자세히 읽을 수 있습니다 이 글.

로지스틱 회귀

로지스틱 회귀 은 주로 분류에 사용되는 지도 학습 알고리즘입니다. 목표는 입력이 어떤 클래스에 속할 확률을 가장 잘 예측하는 로지스틱 곡선을 찾는 것이며, 이렇게 얻은 확률을 사용해 입력을 실제 클래스에 매핑합니다.

k-최근접 이웃

k-최근접 이웃, 또는 k-NN은 주로 분류 문제에 사용되는 지도 학습 알고리즘입니다. 목표는 데이터 포인트가 특정 클래스에 속할 확률을 예측하는 것이며, 이는 주변 데이터 포인트들이 속한 클래스(들)를 바탕으로 결정됩니다. 가까운 그것이 속한

의사결정나무

의사결정나무 은 지도 학습 모델로, 분류와 회귀 문제에 사용됩니다. 의사결정나무는 데이터 포인트의 특성에 따라 서로 다른 예측으로 “가지치기”되는 규칙을 학습하여, 새로운 데이터 포인트의 어떤 값을 예측합니다.

나이브 베이즈

나이브 베이즈 분류기 은 분류 문제에 사용되는 지도 학습 모델입니다. 나이브 베이즈 모델은 베이즈 정리 데이터 포인트가 각 가능한 클래스에 속할 확률을 계산하여, 가장 가능성이 높은 클래스를 식별합니다.
여기서 “나이브”라는 표현은 각 데이터 포인트의 특성들이 서로 완전히 독립적이라는 가정을 뜻하며, 실제로는 거의 성립하지 않습니다. 그럼에도 불구하고 이 가정은 일부 계산 측면을 훨씬 단순하게 만들어 주며, 나이브 베이즈 모델은 실제 적용에서도 종종 좋은 성능을 보입니다.

서포트 벡터 머신(SVM)

서포트 벡터 머신 (SVM)은 분류에 사용되는 지도 학습 모델입니다. SVM은 초평면 데이터셋에서 서로 다른 클래스를 가장 잘 분리하는 초평면을 찾고, 새 데이터 포인트가 그 초평면의 어느 쪽에 위치하는지(즉, 어떤 클래스에 속하는지) 파악하여 분류합니다.
SVM 알고리즘은 회귀 문제에도 적용할 수 있으며, 이 경우 일반적으로 서포트 벡터 회귀(SVR)라고 부릅니다.

비지도 학습이란 무엇인가?

비지도 학습에서는 레이블이나 원하는 출력이 없는 데이터셋이 기계 학습 알고리즘에 제공됩니다. 알고리즘의 목표는 알려진 정답의 “감독” 없이 데이터의 특성을 스스로 찾아내는 것입니다.
비지도 학습 알고리즘은 종종 유사한 데이터 포인트를 묶거나, 고차원 데이터를 더 적은 차원으로 단순화하는 것을 목표로 합니다. 이러한 작업을 각각 군집화와 차원 축소라고 합니다.
군집화와 차원 축소는 종종 함께 이루어집니다. 일반적으로 고차원 데이터셋에서 데이터 포인트를 특징으로 묶기 전에 차원, 즉 특징 수를 줄이는 것이 바람직합니다. 이는 차원의 저주 때문인데, 고차원 데이터는 먼저 더 적은 차원으로 변환하지 않으면 효율적이고 실용적으로 계산하기 어렵게 만드는 특정한 성질을 갖고 있기 때문입니다.

군집화와 차원 축소의 차이는 무엇인가?

군집화와 차원 축소는 데이터 내부의 패턴을 식별하는 방법입니다.
군집화는 정의된 유사성 척도에 따라 데이터 포인트들을 함께 묶는 것입니다.
차원 축소는 고차원 데이터를 더 적은 차원으로 단순화합니다.
  • 군집화 문제의 예: 사용자의 하루 시청 분량(분)과 주간 총 시청 세션 수 같은 입력 정보를 바탕으로, 유사한 시청 패턴이라는 출력에 따라 스트리밍 플랫폼 사용자들을 식별하기.
  • 차원 축소 문제의 예: 단순화하기 서로 다른 와인의 13가지 속성을 포함한 데이터셋 2차원 산점도에서 시각화할 수 있도록, 데이터셋을 두 차원으로 축소합니다.

대표적인 비지도 학습 알고리즘과 모델

이 절에서는 대표적인 비지도 학습 알고리즘과 모델을 간략히 설명합니다.

K-평균 군집화

K-평균 군집화 비지도 학습 알고리즘으로, 군집화 문제에 사용된다. 목표는 데이터 포인트를 미리 정해진 수의 그룹으로 분할하는 것이다. 군집의 개수만큼이며, 각 데이터 포인트는 다음 기준을 만족하는 군집에 속한다: 가장 가까운 가운데.

주성분 분석 (PCA)

주성분 분석 (PCA)는 비지도 차원 축소 알고리즘이다. 목표는 데이터셋의 주성분(PC)을 계산하는 것으로, 원래의 특성에서 파생된 새로운 특성들이다. 일반적으로 상위 두세 개의 주성분만 유지하여 데이터셋을 2차원 또는 3차원으로 재매핑한다.

t-분포 확률적 이웃 임베딩(T‑SNE) 및 균일 매니폴드 근사와 투영(UMAP)

t-분포 확률적 이웃 임베딩 (t‑SNE) 및 균일 매니폴드 근사와 투영 (UMAP)은 작동 방식이 매우 비슷하지만 미묘하면서도 중요한 차이가 있는 비지도 차원 축소 알고리즘이다.
두 알고리즘 모두의 목표는 원본 데이터셋에서 점들 사이의 유사도를 계산한 뒤, 그 유사도를 최대한 보존하면서 데이터셋을 더 낮은 차원(보통 2차원)으로 투영하는 표현을 찾는 것이다.
그러나 t‑SNE와 UMAP은 몇 가지 핵심 측면에서 다르다. 두 알고리즘이 거리를 측정하는 방식(한 점이 다른 점과 얼마나 “가깝거나” “먼지”), 초기 저차원 투영을 생성하는 방식, 그리고 그 저차원 투영을 이후에 최적화하는 방식이 서로 다르다.
t‑SNE, UMAP, 그리고 두 알고리즘의 차이에 대해 더 자세히 알아보려면 Andy Coenen과 Adam Pearce의 블로그 글 “UMAP 이해하기.

강화학습이란 무엇인가?

강화학습에서는 에이전트가 주어진 환경과 상호작용하면서 보상 신호를 받는다. 강화학습 알고리즘의 목표는 에이전트를 학습시켜 누적 보상 신호를 최대화하는 행동을 익히도록 만드는 것이다.
강화학습(RL) 접근 방식은 일반적으로 모델 기반과 모델 프리 두 범주 중 하나에 속한다. 모델 기반 RL 알고리즘에서는 에이전트가 환경의 “모델”, 즉 행동을 보상으로 매핑하는 어떤 함수에 접근할 수 있다. 모델 프리 RL 알고리즘에서는 에이전트가 그러한 모델에 접근할 수 없으므로 환경에 대한 정보가 불완전하다.
RL 세계는 방대하고 복잡하며, 흔히 쓰이는 RL 알고리즘을 간단히 훑어보는 것만으로도 수많은 기본 개념과 기법에 대한 추가 설명이 필요하다.
강화학습을 더 깊이 파고들고 싶다면 Mukilan Krishnakumar의 글 “예제로 배우는 강화학습 입문"

딥러닝과 딥러닝 모델 빠른 입문

딥러닝은 기계학습의 한 하위 분야로, 구축에 주력한다 인공 신경망 (일반적으로 신경망이라 부르는) 동물의 뇌 신경 회로에서 영감을 받은 기계학습 알고리즘의 한 종류.
지금까지 살펴본 바와 같이, 지도학습, 비지도학습, 강화학습은 머신러닝 알고리즘이 수행하는 ���제의 성격에 따라 구분되는 학습 패러다임이다.
  • 지도학습: 레이블이 있는 데이터를 사용해 데이터의 속성을 학습하기
  • 비지도학습: 레이블이 없는 데이터를 사용해 데이터의 속성을 학습하기
  • 강화학습: 상호작용과 보상을 통해 환경의 특성을 학습하기
하지만 “딥러닝”이라는 용어는 다층 구조의 신경망으로 설계되고 구현된 알고리즘을 가리킨다. 딥러닝 모델은 지도학습, 비지도학습, 강화학습 과제를 모두 수행할 수 있다.
신경망은 인공 뉴런(“퍼셉트론” 또는 간단히 “뉴런”이라고도 함)으로 이루어진 층으로 구성되며, 한 층의 뉴런은 다른 층의 뉴런들과 연결된다. 즉, 한 층의 뉴런이 내는 출력이 다른 층의 뉴런이 받는 입력의 일부 또는 전부가 된다.
이러한 연결은 중간의 여러 “은닉” 층을 거쳐 네트워크의 첫 번째 층에서 마지막 층으로 한 방향으로만 흐른다. 첫 번째 층과 마지막 층은 각각 네트워크의 입력층과 출력층으로 불린다.
위키백과 문서의 이 그래픽은 인공 신경망 각 원은 하나의 뉴런을, 각 원의 색은 서로 다른 층을, 각 화살표는 한 뉴런에서 다른 뉴런으로 이어지는 연결을 나타내며, 신경망의 구조를 보여준다.
다른 알고리즘과 마찬가지로 신경망(그리고 그 각 층)은 일정한 개수의 입력을 받아 일련의 지시를 따른 뒤 일정한 개수의 출력을 만들어낸다. 또한 다른 머신러닝 모델과 마찬가지로, 신경망을 학습시키는 목표는 이 입력값, 즉 매개변수의 값을 최적화하는 것이다.
하지만 딥러닝은 때때로 이 과정을 인간이 이해하기 어려울 정도로 전례 없는 규모로 확장한다.
예를 들어, OpenAIGPT-3 는 잘 알려진 딥러닝 모델로, 텍스트 프롬프트를 입력으로 받아 그 프롬프트의 이어지는 내용을 출력한다. GPT-3는 거대한 규모로 유명하며, 96 어텐션 레이어, 그리고 신경세포에서 레이어는 합쳐서 175 십억 입력으로서의 매개변수. 🤯
딥러닝에 대해 더 이야기할 수 있는 내용이 많지만, 더 깊이 있는 설명은 다른 글에서 다루겠습니다. 기대해 주세요!

요약

이제 알고리즘, 머신 러닝 모델, 핵심 머신 러닝 패러다임(지도 학습, 비지도 학습, 강화 학습), 그리고 흔히 사용하는 머신 러닝 모델에 대한 길지만 부드러운 소개를 마무리했습니다.
읽어 주셔서 감사합니다!
저자 주: 안녕하세요, 저는 기술 문서 작성자 앤젤리카입니다 Weights & Biases — 우리는 머신 러닝을 위한 도구를 만듭니다. 이 글이 마음에 드셨다면, 저희를 팔로우해 주세요 트위터 또는 유튜브감사합니다!

관련 읽을거리

머신 러닝에 대해 더 알고 싶다면, 다음 글들을 참고해 보세요:


이 글은 AI 번역본입니다. 오역이 있을 경우 댓글로 알려 주세요. 원문 보고서 링크는 다음과 같습니다: 원문 보고서 보기
Thomas Capelle
Thomas Capelle •  
Loved the piece, it's great to get the big picture!
Reply