EBS 입이 트이는 영어2024.6.4 Electronic Books Electronic Books 본문As an avid reader collecting paper books has been a hobby of mine. Whenever I happened to come across books with unique paper materials, beautiful covers, or lovely illustrations, I felt the urge to collect them. But as I kept buying books left and right, I soon ran out of space on my bookshelf. So, I had no choice but to purchase an ebo..
EBS 입이 트이는 영어2024.6.3 How to Boil an Egg How to Boil an Egg 본문I like boiled eggs. But I prefer them soft-boiled rather than hard-boiled. When I ask people how to boil eggs, they usually say to put enough water to cover the eggs in a pot and boil them for 10 to 20 minutes. However, there is a much better way. First, I take the eggs out of the fridge and let them sit at room temperature for at le..
머신러닝의 비지도 학습 중 군집화에 대해서 알아보겠습니다. 군집화 (Clustering)군집화(Clustering)은 사전 정의 범주가 없는 상태에서 어떤 대상들의 특징을 구분해서 그룹으로 묶는 과정 입니다. 군집들 사이의 관계를 분석하고, 데이터 전체의 구조에 대한 이해를 돕고자 하는 탐색적 분석 방법 입니다. 군집화는 다음과 같은 특징이 있습니다.유사한 데이터 그룹을 찾아냄전체 특징이 아닌 일부 특징만을 이용하여 군집화를 수행할 수 있음범주형 데이터를 군집화 하는 방법도 있음 군집화의 종류 (Clustering Algorithm)군집 방법에 따라서 다양한 군집화 알고리즘이 있습니다. 대표적인 군집 방법으로 계층적 군집( Hierarchical Clustering) 과 분할적 군집(Partional ..
DataFrame에 결측치(NaN)가 들어 있는 라인을 추출하고 싶은 경우 어떻게 해야할 지 알아보겠습니다. 데이터 프레임 결측치 확인 방법우선 다음과 같이 결측치가 들어 있는 데이터 프레임을 만들어서 설명하겠습니다.import numpy as npimport pandas as pdraw_data = {'first_name': ['Jason', np.nan, 'Tina', 'Jake', 'Amy'], 'last_name': ['Miller', np.nan, 'Ali', 'Milner', 'Cooze'], 'age': [42, np.nan, 36, 24, 73], 'sex': ['m', np.nan, 'f'..
판다스로 csv 파일을 읽어 왔을 때 Error tokenizing data. C error가 발생하는 경우 해결 방법에 대해서 알아보겠습니다. Error tokenizing data. C error 발생 원인read_csv로 csv 파일을 로딩할 떄 Error tokenizing data. C error가 발생하는 경우가 있습니다.해당 오류는 쉼표로 분리되는 각 컬럼의 개수가 서로 다른 행이 존재하기 때문에 발생하는 에러로 csv 내 모든 데이터가 동일한 개수의 쉼표로 구분되어 있어야 하는데, 쉼표의 개수가 다른 행이 존재해서 발생하는 오류 입니다. Error tokenizing data. C error 해결 방법오류가 발생한 라인을 찾아서 삭제해도 해결할 수 있지만 이렇게 하면 해당 라인의 데이터..
이전 포스팅까지 트랜스포머 모델에 대해서 알아보았습니다. 이번 포스팅에서는 트랜스포머 기반 모델인 GPT와 BERT에 대해서 간략하게 알아보겠습니다. GPT와 BERTGPT (Generative Pre-trained Transformer)와 BERT (Bidirectional Encoder Representations from Transformers)는 둘 다 자연어 처리(NLP)에서 널리 사용되는 트랜스포머 기반 모델입니다.GPT는 트랜스포머의 인코더 부분만을 사용한 모델이고, BERT는 트랜스포머의 디코더만을 사용한 모델입니다.GPT와 BERT 각각의 특징에 대해서 알아보겠습니다. GPT (Generative Pretrained Transformer)GPT는 Gnerative Pretrained ..
Comment