본문 바로가기 메뉴 바로가기

제리코드르렁

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

제리코드르렁

검색하기 폼
  • 분류 전체보기 (134)
    • AI Development (29)
      • 머신러닝 딥러닝 (5)
      • 자연어처리 (12)
      • 자주쓰는 코드 (6)
      • 통계분석 (1)
      • 라이브러리 (1)
    • Computer Science (7)
      • 컴퓨터 구조 (5)
      • 운영체제 (1)
    • Web Development (83)
      • React (7)
      • vue (59)
      • TypeScript (2)
      • JAVA (1)
    • Github (2)
    • ElasticSearch (0)
  • 방명록

transformer (2)
Hugging Face

Hugging Face란?Hugging Face는 자연어 처리(NLP) 분야에서 주로 사용되는 오픈 소스 AI 플랫폼 및 커뮤니티로, 사용자들이 쉽게 머신러닝 모델을 활용하고 연구할 수 있도록 다양한 도구와 서비스를 제공합니다. Hugging Face는 특히 Transformers 라이브러리로 유명하며, 이 라이브러리는 다양한 사전 학습된 트랜스포머 기반 모델들을 포함하고 있습니다.Hugging Face의 주요 기능과 서비스Transformers 라이브러리:BERT, GPT, RoBERTa, T5 등 여러 사전 학습된 트랜스포머 모델들을 쉽게 사용할 수 있는 라이브러리입니다.이 라이브러리는 다양한 NLP 작업(예: 텍스트 생성, 번역, 감성 분석 등)에 사용할 수 있는 모델과 툴을 제공합니다.Datase..

AI Development/자연어처리 2024. 8. 11. 11:14
BERT

BERT란?BERT는 Bidirectional Encoder Representations from Transformers의 약자로, Google에서 개발한 자연어 처리(NLP) 모델입니다. BERT는 문맥을 양방향으로 이해할 수 있는 사전 학습된 트랜스포머 모델로, NLP 분야에서 혁신적인 변화를 가져왔습니다.BERT의 특징양방향성:BERT는 문장의 왼쪽과 오른쪽 문맥을 동시에 고려하여 단어를 이해합니다. 이는 기존의 언어 모델들이 주로 한 방향으로만 문맥을 고려하는 것과 대비됩니다. 양방향성을 통해 문장의 맥락을 더 깊이 이해할 수 있습니다.사전 학습 및 미세 조정(Fine-tuning):BERT는 방대한 양의 텍스트 데이터로 사전 학습(pre-training)된 후, 특정 작업에 맞춰 미세 조정(fi..

AI Development/자연어처리 2024. 8. 11. 11:14
이전 1 다음
이전 다음
250x250
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • Await
  • 사전학습모델
  • 인스턴스 생명주기
  • 컴포넌트간통신
  • 리액트 폴더구조
  • 이벤트유효성
  • 인스턴스 구조
  • 인스턴스 옵션
  • KoELECTRA
  • NLP
  • defaultparameter
  • 리액트
  • 로짓함수
  • 데이터옵션
  • 프론트엔드
  • 콜백callback
  • 이벤트에미터
  • async
  • gradientclipping
  • dl
  • 컴포넌트간데이터전달
  • 코랩 워드클라우드 한글깨짐
  • ML
  • 코랩 워드클라우드
  • transformer
  • 자연어처리
  • 코랩 한글깨짐
  • AI
  • 사용자정의이벤트
  • PROMISE
more
«   2026/02   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바