728x90
728x90


"이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다."


AI 인덱스 리포트 2024
두루두루/소식, 정보 2024. 4. 18. 08:37

미 스탠포드대학교 (Stanford University)의 스탠포드 인간중심 인공지능연구소 ( Human-Centered Artificial Intelligence, HAI)에서 인공지능 인덱스 2024 (AI Index 2024)를 공개하였습니다. AI 분야의 10가지 시사점을 이야기하고 있는 500페이지 분량의 보고서 입니다. 10가지 시사점은 다음과 같습니다. 1. AI는 일부 작업에서 인간을 능가하지만 모든 작업에서 그렇지는 않습니다. AI는 이미지 분류, 시각적 추론 및 영어 이해 등 몇 가지 벤치마크에서 인간의 성능을 뛰어넘었습니다. 그러나 경쟁 수준의 수학, 시각적 상식 추론 및 계획과 같은 더 복잡한 작업에서는 뒤처져 있습니다. 2. 산업은 프론티어 AI 연구를 지속적으로 주도하고 있습니다..

[개발자를 위한 LLM] 트랜스포머 구조 (Transformer High-level Architecture)
IT/Large Language Model 2024. 3. 28. 19:52

이번 포스팅에서는 트랜스포머의 구조에 대해서 알아보겠습니다. 우선 최상위 구조를 알아보고, 각 구성요소에 대해서 자세히 설명하도록 하겠습니다. 트랜스포머의 구조 트랜스포머는 크게 인코더와 디코더로 구성되어 있습니다. 인코더 (Encoder): 소스 시퀀스의 정보를 압축해 디코더로 보내는 역할 디코더 (Decoder): 인코더가 보내 준 소스 시퀀스 정보를 받아서 타깃 시퀀스를 생성 인코더는 입력 시퀀스(예: 텍스트)를 처리하고, 이 시퀀스의 정보를 컨텍스트로 변환하는 역할을 합니다. 트랜스포머의 인코더는 여러 개의 인코더 레이어 층으로 구성됩니다. 트랜스포머 논문에서는 6개의 인코더 층을 제안했지만, 인코더 층의 개수는 성능에 크게 영향을 주는 요소는 아닙니다. 디코더는 인코더로부터 얻은 정보를 바탕으로..

[개발자를 위한 LLM] 트랜스포머(Transformer) 개요
IT/Large Language Model 2024. 3. 18. 16:24

LLM 알고리즘의 시초 트랜스포머(Transformer)에 대해서 알아보곘습니다. 트랜스포머의 개요 부터 시작해서 트랜스포머의 주요 엔티티 및 알고리즘까지 포스팅이 이어지겠습니다. 트랜스포머 2017년 Google Research에서 발표한 자연어 처리 모델 "Attention is All You Need"라는 논문에서 처음 제안 논문 제목처럼 Attention 매커니즘을 이용 주로 언어 번역, 문장 생성, 요약 등의 작업에 사용 트랜스포머의 장점 병렬 처리 가능: RNN과 달리 트랜스포머는 시퀀스 내 모든 요소를 동시에 처리할 수 있어, 효율적이고 빠른 학습이 가능 장거리 의존성 학습: 문장 내 멀리 떨어진 요소들 간의 관계도 잘 파악 확장성: 큰 모델과 데이터에도 잘 확장되어, 더 정확한 결과를 낼 ..

AI로 그린 판다
IT/Deep Learning 2024. 2. 20. 08:55

OpenAI 달리로 그림을 그려 달라고 해보았습니다. 그림의 주제는 판다 달리가 그려 준 귀여운 판다 모음 입니다.

728x90
728x90