- 2025년 2월 10일 오전 10:34
- 조회수: 127

인공지능 모델링에서 가장 중요한 2가지는 가중치와 비선형변환식이다. 인풋값의 조합으로 어떤 의미 있는 값 (feature, 특징)을 구할 때 그 값 앞에 곱해지는 계수가 가중치다. 보통 실제 정답 (output)과 최대한 비슷해 지도록 가중치가 결정되는데 이를 학습이라고 한다. 가중치는 weight, attention, gate 등의 명칭으로 불린다. 비선형변환식은 인풋의 조합으로 얻어진 특징을 비선형변환 시켜주는 식이다. 대표적으로는 sigmoid, tanh, ReLu 등이 있다. 비선형변환의 이유는 입력과 출력 사이에 복잡한 관계를 정교하게 반영할 수 있는 특징을 얻기 위함이다. 결국 이 2가지를 어떻게 결정하고 사용하느냐가 인공지능 모델링의 핵심이다.
Two of the most important things in AI modeling are weights and nonlinear transform functions. Weights are the coefficients that are multiplied before the input values to obtain a meaningful value (i.e., feature). The weights are usually determined to be as close as possible to the actual correct answer (output), which is called learning. Weights are also called attention, gate, etc. A nonlinear function is commonly referred to as an activation function that introduces nonlinearity into the network, allowing it to reflect the complex relationship between the input and output. Examples include sigmoid, tanh, and ReLu. In the end, how you decide and use these two (weights, nonlinear function) is the key to AI modeling.
Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.