얘도 svm과 마찬가지로 3강에서 알려줌 1. Code cs231n/classifiers 폴더에 있는 softmax.py를 고쳐서 씁니도 numeric instability에 빠지지 않기 위해서 score중에 최대 값을 score 전체에 빼서 모든 값이 0이하가 되도록 만든 다음에 loss랑 grad를 구하면 된다. loss를 구할땐 score를 구해서 softmax함수를 취한 다음에 정답 클래스의 확률에 -log()를 취하면 됨! softmax loss는 log에 확률값을 넣는 거라 최소 0(확률이 1일때)에서 최대 무한대(확률 엄청 클 때)의 값을 가진다. grad는 아래 사진처럼 구하면 됨(사실 잘 모르겟음;;;;) loop 안 돌고 행렬 버전으로 하면 됨 2. Inline Question Q. W..