벡터 사이의 거리를 norm이라고 한다.

-p는 Norm의 차수를 의미한다. p = 1이면 L1 Norm을 의미하고, p = 2이면 L2 Norm이다.

-n은 해당 벡터의 원소 수이다.

 

L1 Norm

벡터 p, q의 각 원소들의 차이를 절대값의 합이다. == 두 벡터 간의 거리를 절댓값으로 구하는 것

 

p = ( 2, 1, -2)   q = (4, 0, 5) 일 경우,

p,q의 L1 Norm은   ㅣ2-4ㅣ + ㅣ1-0ㅣ + ㅣ-2+5ㅣ = 2+1+3 = 6

 

 

 

L2 Norm

유클리디안 거리이다. (오랫동안 두 점 사이의 거리로 사용했던 Euclidean Distance)

 

 

검정색 두 점사이의 L1 Norm은 빨간색, 파란색, 노란색 선이다. L2 Norm은 초록색 선이다. 

L1 Norm은 여러가지 path를 가지지만 L2 Norm은 가장 짧은 path만 가진다.

 

 

참고

 

https://light-tree.tistory.com/125

 

딥러닝 용어 정리, L1 Regularization, L2 Regularization 의 이해, 용도와 차이 설명

제가 공부하고 정리한 것을 나중에 다시 보기 위해 적는 글입니다. 제가 잘못 설명한 내용이 있다면 알려주시길 부탁드립니다. 사용된 이미지들의 출처는 본문에 링크로 나와 있거나 글의 가장

light-tree.tistory.com

https://velog.io/@gnlenfn/L1-L2-Regularization

 

L1, L2 Regularization

정규화에 대한 내용 정리

velog.io

 

'개발 관련자료 > ML, DL' 카테고리의 다른 글

퍼셉트론(Perceptron)  (0) 2021.06.16
Bias와 Variance 개념  (0) 2021.06.11
Ridge regression과 Lasso regression 개념  (0) 2021.06.11
cross validation(교차검증)  (0) 2021.05.05
ROC Curve / AUC  (0) 2021.05.05

+ Recent posts