HAICon2021 산업제어시스템 보안위협 탐지 AI 경진대회

MinMax 정규화가 효과가 있나요?

2021.09.25 12:38 2,650 Views

MinMax 정규화를 기본적으로 해주고 있지만

막상 안해준 것보다 나을 지는 모르겠네요.

성능자체보다 MinMax 하는 이유가 threhold 값 정해주기 편해서 하는 것 같은데

안해줘도 threhold 정해주는 것은 가능해서..

그리고 validation minmax해도 괜찮다고 하는데 어차피 값은 똑같이 적용될 것 같고.

해야될 이유가 있을까요?

로그인이 필요합니다
0 / 1000
종이수거
2021.09.26 15:00

삭제된 댓글입니다

BeneciaLee
2021.09.27 22:02

기본적으로 하는 게 좋지 않을까요?

딥러닝 모델은 데이터 스케일에 영향을 많이 받으니까요. 만약  값의 범위가 0~100의 값을 갖는 특징이 있다면 최초의 학습시에 100을 갖는 데이터가 모델의 가중치 행렬에 가장 많이 영향을 끼치니까요. 하지만 우리는 이러한 점이 옳지 않다는 것을 이미 알고 있죠. 이러한 영향을 최소화 하기 위해서 데이터 스케일 조정이 필요한 것 같습니다.
------
다만, Attention 변형 모델이나 Transformer 모델 같은 경우는 저 또한 "데이터 스케일 조정이 필요한가?"라고 의문이 드네요. 왜냐하면 Attention 기반의 모델이나 Transformer 모델 같은 경우는 Attention 계산과 FFNN 에서 추가적인 Residual Connection과 Normalization(이것에 의해서)을 해주기 때문에 위에서 말한 문제점을 모델 자체적으로 해결하고 있으니까요. 

BeneciaLee
2021.09.27 20:22

그런데 저도 "트리 모델 같은 경우는 데이터 스케일에 민감하지 않으니 그냥 돌려도 되고 딥러닝 모델은 데이터 스케일에 영향을 많이 받으니 데이터 스케일을 조정해야 한다." 라는 개념이 머리 속에 박혀 있어서, 데이터 스케일을 조정하지 않고 모델들 돌려본다는 생각을 하지 못했네요. 저는 Resnet + Gru 모델을 학습 할 때에도 데이터 스케일 조정을 하고 학습을 했네요....

데이터 스케일 조정하지 않고 돌려 보셨나요?

건조한안구는싫어
2021.09.28 03:07

아뇨. 요즘 다시 해보려고요. 언뜻  이상치가 많으면 minmax 안쓰는게 나을 수도 있겠구나 생각했습니다. 스케일링 해주는 게 일단 더 낫다는 게 현재 생각이긴 합니다.

레오레오
2021.09.29 10:31

삭제된 댓글입니다