목록Computer (119)
BASHA TECH
요약 → 2010년대의 AI 트랜드 = 전문가 시스템 접근 방식 - 전문가가 제시한 논리를 구현할 목적으로 맞춤형 이미지 필터를 설계해 적용해 가장 높은 점수가 나온 범주를 선택, 단점. 상당한 맞춤 작업 필요해 적용범위 제한적. → 2012년 알렉스넷이 나옴. 성능이 100배 향상. 알렉스넷의 기존 방식과 차별점 - 그래핏 처리 유닛, 렐루 활성화, 규제, 깊이 → 신경망에 대한 관심이 부활하며 깊이가 중요함을 느낌 - 이를 딥러닝이라 부름 - 다수의 레이어가 있는 신경망을 사용해 다양한 형태의 비정형 데이터를 처리할 수 있게 됨. → 컴퓨터 비전이 다양한 분야에서 사용. 머신러닝 딥러닝 활용 사례
이미지 객체 검출(Object Detection) 작업을 수행하는 경우, 일반적으로 사용되는 손실 함수로는 "지역화 손실 (Localization Loss)"와 "분류 손실 (Classification Loss)"가 결합된 "지역화-분류 손실 (Localization-Classification Loss)"이 사용됩니다. 이러한 손실 함수들은 객체 검출 모델의 성능을 향상시키는 데 중요합니다. 지역화 손실 (Localization Loss): 지역화 손실은 모델이 객체의 위치를 정확하게 예측하도록 돕습니다. 보통는 평균 제곱 오차(Mean Squared Error, MSE)나 평균 절대 오차(Mean Absolute Error, MAE)를 사용합니다. 예측된 바운딩 박스의 좌표와 실제 바운딩 박스의 좌표 ..
머신러닝과 딥러닝에서 손실 함수의 역할은 매우 중요합니다. 이는 모델이 얼마나 잘 학습하고 있는지를 판단하는 기준이 되며, 따라서 모델의 최종 성능에 큰 영향을 미칩니다. 손실 함수는 모델이 예측한 값과 실제 값 사이의 차이를 어떻게 측정할지 결정합니다. 여기서는 다양한 유형의 모델에 적합한 손실 함수와 그 선택이 성능에 미치는 영향에 대해 알아보겠습니다. 회귀 모델과 MSE: 회귀 모델에서는 주로 평균 제곱 오차(Mean Squared Error, MSE) 손실 함수가 사용됩니다. MSE는 예측값과 실제 값 사이의 오차를 제곱하여 측정하는 방법으로, 오차의 크기에 민감합니다. 다른 종류의 손실 함수를 선택하면, 모델이 오차를 해석하는 방식이 달라지므로 성능에 영향을 미칠 수 있습니다. 분류 모델과 교차..
Xml과 Json 파일 포맷은 많이 들어보셨는지요? 아마 많이 쓰고 계실 걸로 생각 됩니다. 그럼 이런 포맷들은 왜 사용할까요? 그걸 먼저 설명드리면, 우리가 타 시스템 간에 데이터를 주고 받을 때 데이터 포맷에 대한 약속이 필요합니다. 혼자 시스템을 개발하거나 내부 시스템 끼리는 "1-바샤-학생,2-개똥이-친구" 이라는 문자열을 만들어서 "-(하이픈)"을 파싱해서 순서대로 "1"은 일련번호, "바샤"은 이름, "학생"는 구분이라는 규칙과, ",(콤마)"는 리스트를 나타내는 구분자라는 규칙을 세울 수 있을 겁니다. 그럼 데이터를 내부 시스템에 전송할때 포맷에 대한 형태는 말로써 혹은 내부 문서로써 정의해 놓으면 되기 때문에 데이터 크기는 엄청 작아 질 수 있겠네요. 근데 문제는 타 시스템들과의 연동을 할..
Ctrl + Shift + [ : 현재 영역 접시 Ctrl + Shift + ] : 현재 영역 펼치기 Ctrl + K + 0(숫자) : 전체 접기 Ctrl + K + J : 전체 펼치기
: UNETR + Swin Transformer 결합 → Swin UNETR - Swin UNETR의 구조 1. Encoder를 통해서 image의 feature map과 downsampling을 한다. - Encoder를 통과하기 전에 Patch partition을 통해서 3D token에 대한 sequence를 만든다. - 여기서 Swin Transformer Block을 지나치는데, W-MSA와 SW-MSA 메커니즘을 적용하는 단계이다. - 각각의 Swin Transformer Block을 지나면서 총 4개의 중간 output을 skip-connection에 이용한다. 2. Decoder 단계에서는, 3D UNet구조를 통해서 각각의 sequence를 다시 3D voxel 형태로 reshape 후 ..
Swin-Unet: Swin-Unet은 Swin Transformer와 U-Net을 결합한 모델입니다. Swin Transformer는 이미지 처리에 효율적이고 확장 가능한 트랜스포머 아키텍처입니다. U-Net의 디코더를 사용하여 세그멘테이션 마스크를 생성합니다. 주로 Swin Transformer의 기능을 활용하면서 세그멘테이션 작업에 U-Net 구조를 적용한 것입니다. TransUnet: TransUnet은 순수한 Transformer 아키텍처로 이미지 세그멘테이션을 수행하는 모델입니다. 이미지를 작은 패치로 분할하고 각 패치를 Transformer로 처리하여 세그멘테이션 마스크를 생성합니다. U-Net과 직접적으로 결합된 구조가 아니며, Transformer 아키텍처를 이용합니다. Unet Tran..
차원 축소 개요 차원 축소는 매우 많은 피처로 구성된 다차원 데이터 세트의 차원을 축소해 새로운 차원의 데이터 세트를 생성하는 것이다. 일반적으로 차원이 증가할 수록 데이터 포인트 간의 거리가 기하급수적으로 멀이게 되고, 희소한 구조를 가지게 된다. 수백 개 이상의 피처로 구성된 데이터 세트의 경우 상대적으로 적은 차원에서 학습된 모델보다 예측 신뢰도가 떨어진다. 도한 피처가 많을 경우 개별 피처간에 상관관계가 높을 가능성이 크다. 선형 회귀와 같은 선형 모델에서는 입력 변수 간의 상관관계가 높을 경우 이로 인한 다중 공선성 문제로 모델의 예측 성능이 저하된다. 이렇게 매우 많은 다차원의 피처를 차원 축소해 피처 수를 줄이면 더 직관적으로 데이터를 해석할 수 있다. 또한 차원 축소를 할 경우 학습 데이터..
1. 회귀 소개 : 데이터 값이 평균과 같은 일정한 값으로 돌아가려는 경향을 이용한 통계학 기법. (오차가 minimize 되는 것을 찾는다.) 여러 개의 독립변수와 한 개의 종속변수 같의 상관관계를 모델링하는 기법을 통칭한다. 머신러닝 관점에서 보면 독립변수는 피처에 해당되며 종속변수는 결정 값이다. 따라서 머신러닝 회귀 예측의 핵심은 주어진 피처와 결정 값 데이터 기반에서 학습을 통해 최적의 회귀 계수를 찾아내는 것이다. 회귀는 회귀 계수의 선형/비선형 여부, 독립변수의 개수, 종속변수의 개수에 따라 여러 가지 유형으로 나눌 수 있다. 회귀에서 가장 중요한 것은 회귀 계수(w: weight)이다. 이 회귀 계수가 선형인지 아닌지에 따라 선형 회귀와 비선형 회귀로 나눌 수 있다. 그리고 독립변수의 개수..
1. 분류(Classification)의 개요 지도 학습은 명시적인 정답이 있는 데이터(레이블)가 주어진 상태에서 학습하는 머신러닝 방식. 지도 학습의 대표적인 유형인 분류는 학습 데이터로 주어진 데이터의 피처와 레이블 값 (결정 값, 클래스 값)을 머신러닝 알고리즘으로 학습해 모델을 생성하고, 이렇게 생성된 모델에 새로운 데이터 값이 주어졌을 때 미지의 레이블 값을 예측하는 것. 즉, 기존 데이터가 어떤 레이블에 속하는 지 패턴을 알고리즘으로 인지한 뒤에 새롭게 관측된 데이터에 대한 레이블을 판별하는 것이다. 앙상블은 서로 다른/또는 같은 알고리즘을 단순히 결합한 형태도 있으나, 일반적으로는 배깅과 부스팅 방식으로 나뉜다. 배깅 방식의 대표인 랜덤 포레스트는 뛰어난 예측 성능, 상대적으로 빠른 수행 시..