Skip to main content

초기 발견 보고

하이퍼파라미터 스위프를 통해 개선을 모색할 견고한 성능입니다. 이 글은 AI 번역본입니다. 오역이 의심되면 댓글로 알려주세요.
Created on September 12|Last edited on September 12

섹션 1


Select runs that logged auc
to visualize data in this line chart.
Select runs that logged precision
to visualize data in this line chart.
Select runs that logged loss
to visualize data in this line chart.
Run: cool-leaf-1

model: "model"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
input_1 (InputLayer) [(None, 32, 32, 3)] 0
conv2d (Conv2D) (None, 32, 32, 16) 448
tf.nn.relu (TFOpLambda) (None, 32, 32, 16) 0
max_pooling2d (MaxPooling2D (None, 16, 16, 16) 0
)
conv2d_1 (Conv2D) (None, 16, 16, 32) 4640
tf.nn.relu_1 (TFOpLambda) (None, 16, 16, 32) 0
max_pooling2d_1 (MaxPooling (None, 8, 8, 32) 0
2D)
conv2d_2 (Conv2D) (None, 8, 8, 32) 9248
tf.nn.relu_2 (TFOpLambda) (None, 8, 8, 32) 0
max_pooling2d_2 (MaxPooling (None, 4, 4, 32) 0
2D)
global_average_pooling2d (G (None, 32) 0
lobalAveragePooling2D)
dense (Dense) (None, 32) 1056
dropout (Dropout) (None, 32) 0
last (Dense) (None, 2) 66
=================================================================
Total params: 15,458
Trainable params: 15,458
Non-trainable params: 0
_________________________________________________________________

그 결과, 사전 학습된 BERT 모델은 출력 레이어 하나만 추가해 미세 조정함으로써, 질문 응답과 언어 추론과 같은 광범위한 과제에서 최첨단 성능의 모델을 만들 수 있습니다. 별도의 과제별 아키텍처를 대폭 수정하지 않고도 BERT는 개념적으로 단순하면서도 경험적으로 강력합니다. GLUE 점수를 80.5%까지 끌어올리는 것을 포함해, 11개의 자연어 처리 과제에서 새로운 최첨단 성과를 달성했습니다.


이 글은 AI 번역본입니다. 오역이 의심되면 댓글로 알려주세요. 원문 보고서 링크는 다음과 같습니다: 원문 보고서 보기