AI (LLM)/이미지 생성 (Generative AI)

[AI] ChatGPT 사용하기-기초편 1 (인공지능 용어)

푸푸놀이터 (PoohPoohPlayground) 2024. 9. 23. 02:02

 

#푸푸놀이터

 

이번 글에서는 인공지능(AI)과 대규모 언어 모델(LLM)과 관련된 주요 용어를 설명하겠습니다.

머신러닝, 딥러닝, 신경망, 대규모 언어 모델 등 필수 개념을 설명합니다. 이러한 용어를 이해하는 것은 AI 분야를 이해하는데 많은 도움이 됩니다.

 

1. 인공지능 (Artificial Intelligence, AI)

  • 정의(Definition): 인간의 지능이 요구되는 작업을 수행할 수 있는 시스템을 만드는 것을 목표로 하는 컴퓨터 과학의 한 분야로, 추론, 학습, 문제 해결, 인식, 언어 이해 등의 작업을 포함합니다.
  • 적용(Application): AI는 로봇공학, 자연어 처리, 컴퓨터 비전, 의사 결정 등 다양한 분야에서 사용됩니다.

2. 머신러닝 (Machine Learning, ML)

  • 정의: 데이터를 기반으로 학습하고 예측이나 결정을 내릴 수 있도록 알고리즘을 훈련시키는 AI의 하위 분야입니다. ML 모델은 더 많은 데이터를 접할수록 성능이 향상됩니다.
  • 적용: 추천 시스템, 스팸 탐지, 예측 분석 등에 사용됩니다.

3. 딥러닝 (Deep Learning)

  • 정의: 많은 층을 가진 신경망(이 때문에 "딥"이라고 부름)을 사용하여 대규모 데이터에서 복잡한 패턴을 모델링하는 ML의 특수 하위 분야입니다. 딥러닝은 이미지 및 음성 인식 분야에서 큰 진전을 이끌어냈습니다.
  • 적용: 자율 주행 차량, 이미지 처리, 자연어 이해 등에서 사용됩니다.

4. 신경망 : 뉴럴 네트워크 (Neural Network)

  • 정의: 인간의 뇌에서 영감을 받은 계산 모델로, 여러 층에 걸쳐 상호 연결된 노드(뉴런)로 구성됩니다. 신경망은 딥러닝의 기초입니다.
  • 적용: 음성 비서, 예측 텍스트 등 다양한 응용 프로그램에서 사용됩니다.

5. 대규모 언어 모델 (Large-Scale Language Model, LLM)

  • 정의: 방대한 양의 텍스트 데이터를 학습하여 인간의 언어를 이해하고 생성할 수 있는 신경망 모델입니다. 이러한 모델은 텍스트 완성, 번역, 요약, 질문 응답과 같은 다양한 작업을 수행할 수 있습니다.
  • 예시(Examples): GPT(Generative Pretrained Transformer), BERT(Bidirectional Encoder Representations from Transformers).

6. 트랜스포머 (Transformer)

  • 정의: 2017년에 도입된 딥러닝 모델 아키텍처로, 자기 주의 메커니즘을 사용하여 텍스트와 같은 순차적 데이터를 처리하고 이해합니다. 트랜스포머는 대부분의 현대 LLM의 핵심이 되었습니다.
  • 적용: 번역, 요약, 감정 분석 등 자연어 처리 작업에서 사용됩니다.

7. 자기 주의 메커니즘 (Self-Attention Mechanism)

  • 정의: 작업의 관련성에 따라 입력 데이터의 다양한 부분에 집중할 수 있게 하는 신경망 내의 과정입니다. LLM에서는 자기 주의 메커니즘이 문장 내 단어들 간의 문맥과 관계를 이해하는 데 도움을 줍니다.
  • 적용: 기계 번역과 같이 문맥 이해가 필요한 작업의 성능을 향상시키는 데 중요한 역할을 합니다.

8. 토크나이제이션 (Tokenization)

  • 정의: 텍스트를 단어, 서브워드, 문자와 같은 작은 단위(토큰)로 나누는 과정으로, 언어 모델에 텍스트를 입력하기 전에 수행됩니다. 토크나이제이션은 모델이 다양한 텍스트 입력을 효과적으로 처리할 수 있도록 합니다.
  • 적용: LLM에 텍스트 데이터를 준비하는 데 필수적입니다.

9. 파인 튜닝 (Fine-Tuning)

  • 정의: 사전 훈련된 모델을 특정 데이터셋이나 작업에 대해 추가로 훈련시켜 특정 응용 프로그램에 맞게 조정하는 과정입니다. 파인 튜닝은 LLM이 감정 분석이나 도메인별 텍스트 생성과 같은 작업에 특화될 수 있도록 합니다.
  • 적용: 일반 LLM을 의료나 금융과 같은 특정 산업에 맞게 조정하는 데 사용됩니다.

10. 자연어 처리 (Natural Language Processing, NLP)

  • 정의: 컴퓨터와 인간의 언어 간 상호작용에 중점을 둔 AI의 한 분야입니다. NLP는 언어 생성, 번역, 감정 분석 등 다양한 작업을 포함합니다.
  • 적용: 가상 비서, 챗봇, 검색 엔진 등에 사용됩니다.

11. 사전 훈련 (Pre-training)

  • 정의: 언어 모델을 대규모, 다양한 텍스트 데이터 코퍼스에서 초기 훈련시키는 단계입니다. 사전 훈련 동안 모델은 일반적인 언어 패턴과 표현을 학습하며, 이후 특정 작업에 맞게 파인 튜닝할 수 있습니다.
  • 적용: GPT와 BERT와 같은 사전 훈련된 모델은 다양한 NLP 작업에서 파인 튜닝의 기초가 됩니다.

12. 생성형 AI (Generative AI)

  • 정의: 기존 데이터에서 학습한 패턴을 기반으로 새로운 텍스트, 이미지, 음악 등을 생성하는 AI 유형입니다. GPT와 같은 생성 AI 모델은 일관성 있고 맥락적으로 적절한 콘텐츠를 생성합니다.
  • 적용: 창작 글쓰기, 콘텐츠 생성, 자동 디자인 등에 사용됩니다.

13. 제로샷 학습 (Zero-shot Learning)

  • 정의: AI 모델, 특히 LLM이 유사한 작업에서 일반화된 지식을 활용하여 명시적으로 훈련되지 않은 작업을 수행할 수 있는 능력입니다. 제로샷 학습에서는 모델이 특정 작업 훈련 없이도 문맥을 기반으로 예측을 수행합니다.
  • 적용: 추가 훈련 데이터 없이도 LLM이 새로운 작업에 적응할 수 있게 합니다.