본문 바로가기
728x90

전체 글67

10. 다항시행과 다항분포(Multinomial Trials and Multinomial Distribution) 연속형 변수를 다룰 때는 주로 정규분포를 사용했지만 범주형 변수에서는 많은 경우에 (베르누이 시행이 독립적으로 반복될 때) 이항분포나 다항분포를 사용한다. 다항분포는 다항시행에서의 확률분포이다. 다항시행의 정의와 다항분포의 정의는 다음과 같다. 다항분포는 이항분포를 확장한 것이라고 생각하면 이해하기 쉽다. (수학적으로 정확한지는 모르겠지만..) 예를 들어서, 동전을 던지는 상황에서는 결과가 두 가지밖에 없기 때문에 확률을 구하고 싶을 때 이항분포를 사용하면 된다. 하지만 주사위를 던질 때는 결과가 여섯 가지이기 때문에 확률을 구하고 싶을 때 다항분포를 사용해야 한다. 이산확률분포와 이항분포에 관한 내용은 아래 글 참고! https://portrait-of-youngblood.tistory.com/41 4.. 2024. 4. 7.
2024 텍스트 아카이브 창의적인 반항아들은 흔히 자신이 권력자나 자본주의 체제에 대한 대안을 제시한다고 생각하기를 좋아한다. '점거 운동Occupy'의 시위자들이 그랬듯이 말이다. 그러나 그들이 깨닫지 못하는 것은 그렇게 창의적이고 독창적으로 살아감으로써 자신들이 실은 자본주의의 손에 놀아나고 있다는 사실이다. 새로운 아이디어야말로 자본주의의 생명줄이니까. 동시대 미술은 자본주의를 위한 연구개발 부서와 같다. 칼 마르크스는 진보 혹은 참신함에 대한 이 욕구를 "잠시도 가만히 있지 못하는 자본주의의 본성"이라고 표현했다.    예술가들이 작동하는 방식을 살펴보면 그것이 신자유주의의 완벽한 모델이기도 하다는 사실을 알 수 있다. 앞선 이들은 예술 작품을 사들이면서 자신들의 취향이 사회에서 폭넓은 트렌드를 형성하여 그 투자에서 수익.. 2024. 3. 6.
울며 겨자먹기로 27일 동안 공부한 토익 후기 1. 기존 영어 실력 미국으로 한 학기 동안 교환학생을 다녀온 경험이 있어서 기본적으로 영어를 읽고 듣는 것은 가능한 상태였다. 영어로 복잡한 문장을 구사하거나 어려운 책을 읽는 건 어려워하지만 기본적인 단어나 자주 쓰이는 표현은 알고 있는 수준이었다. 영어 기본기는 있지만 회사생활을 경험해보지 못해서 비즈니스 영어에 대한 지식은 거의 없는 편이라서 토익을 공부할 때 모르는 단어가 많기는 했다. 예를 들어서 회사가 여행 경비를 보상해준다는(reimburse travel expenses) 개념이나 행사의 기조연설(keynote speak)같은 개념, vice-president(부사장), subsidiary(자회사), affiliate(계열사)같은 단어들을 잘 모르는 편이었다. 2. 공부법 - 토익 강의 수.. 2024. 2. 9.
7. 합성곱 신경망(CNN)의 구조 (Structure of Convolutional Neural Network) 합성곱 신경망은 이미지 인식과 음성 인식 등 다양한 곳에서 사용되는 인공 신경망이다. 특히 이미지 인식 분야에서 딥러닝을 활용한 기법은 대부분 CNN을 기초로 한다. 1. 완전연결 계층(fully-connected layer)와 합성곱 계층(convolutional layer) 지금까지의 신경망은 인접한 계층의 모든 뉴런과 결합되어 있었다. 이를 완전 연결(fully-connected)이라고 하며, 완전히 연결된 계층을 Affine 계층이라는 이름으로 구현했었다. 아래는 완전 연결 구조의 예시이다. ※ Affine: 신경망의 순전파 때 수행하는 연산을 의미한다. 수학의 'Affine 변환' 개념을 따르는데, 이 변환은 기본적으로 입력 데이터에 대해 선형 변환(즉, 가중치와의 곱셈)을 수행한 후에 편향을 .. 2023. 12. 12.
6. 딥러닝에서 과적합(Overfitting)을 막는 방법 1. 가중치 규제 (Weight Regularization) 복잡한 모델을 적합(fit)하거나 특정 가중치의 매개변수 값이 클 때 과적합이 발생할 수 있다. 이때, 학습 과정에서 큰 가중치에 대해서는 그에 상응하는 큰 패널티를 부여해 과적합을 억제할 수 있다. 신경망 학습의 목적은 손실 함수의 값을 작게 만드는 좋은 모델을 찾는 것이기 때문에, 새로 갱신되는 손실함수에 패널티를 주어 과도하게 큰 파라미터를 갖게 되는 것을 막는 것이다. 2. 배치 정규화 (Batch Nomalization) 배치 정규화는 각 배치의 입력 데이터 평균과 분산을 구해 입력 데이터가 평균이 0, 분산이 1이 되도록 정규화한다. 배치 정규화는 과적합을 해결할 수 있다는 장점 뿐만 아니라 학습 속도를 개선할 수 있다는 장점과 초깃.. 2023. 12. 12.
5. 인공신경망의 학습 (Neural Network Training) 문제에 따른 인공신경망 함수와 노드 설정 문제 손실함수 (loss function) 활성화 함수 (activation function) 마지막 총 노드 개수 회귀 MSE 항등 함수(Identity function) (일반적으로) 1개 이진 분류 BCE 시그모이드(Sigmoid) 1개 다중 분류 CE 소프트맥스(Softmax) class의 개수 (추후 작성 예정) 2023. 12. 12.
728x90