허깅페이스(10)
-
[인공지능 친해지기] Hugging Face (15) 다국어 개체명 인식 ③ 토큰 분류를 위한 사용자 정의 모델링
Hugging FaceTransformers 라이브러리는 사용자가 특정 목적에 맞춰 기존의 사전 훈련된 모델을 쉽게 수정하고 확장할 수 있도록 지원합니다. 이를 통해 사용자는새로운 모델을 처음부터 전부 구현하지 않고도, 기존 모델의 구조와 가중치를 활용하여 필요한 목표를 달성할 수 있는 맞춤형 모델을 효율적으로 만들 수 있습니다. https://youtu.be/2GYGAfVr6VE
2023.11.03 -
[인공지능 친해지기] Hugging Face - (15) 다국어 개체명 인식_① 데이터세트 “XTREME”
다국어 개체명 인식에 있어 사용하는 벤치마크 데이터세트인 XTREME을 중심으로 살펴봅니다. 감사합니다. 유튜브 영상 https://youtu.be/sMRZUv_4VY0
2023.10.12 -
[인공지능 친해지기] Hugging Face - (14) HF와 Google이 만든 희소식!
유튜브 https://youtu.be/glhfZTWfjxE 기존 문제점 (고비용과 높은 사양의 메모리 필요) SDXL(Stable Diffusion XL)은 고품질의 사실적인 콘텐츠 생성을 가능하게 하는 제너레이티브 AI 모델임. 그러나 이 모델을 사용하려면 높은 계산 비용과 메모리 요구 사항에 대응해야 함. SDXL은 이전 버전보다 UNet 컴포넌트가 약 3배 더 크며, 이로 인해 프로덕션 환경에서의 배포가 어려웠음 문제점 해결 - (또 하나의 변화) 2023.10.3일 Google은 Hugging Face Diffusion team의 도움을 받아 Hugging Face Spaces에 초고속 SDXL 추론앱을 출시하였음 - (허깅페이스와 구글 공동 작업으로 해결) 허깅 페이스 디퓨저(Hugging Fa..
2023.10.05 -
[인공지능 친해지기] Hugging Face - 트랜스포머 (13) Attention 시각화 실습
트랜스포머에서의 Attention 시각화: BERT를 활용한 실습 1. 트랜스포머와 Attention 트랜스포머는 자연어 처리 분야에서 중요한 아키텍처입니다. 그리고 그 핵심은 'Attention' 메커니즘입니다. Attention은 입력 데이터의 중요한 부분에 '주의'를 기울이게 하는 방법으로, 문장의 다양한 구문적 및 의미적 관계를 동시에 학습할 수 있게 해줍니다. 2. Attention 시각화의 중요성 Attention 메커니즘의 작동 방식을 직관적으로 이해하는 것은 복잡할 수 있습니다. 따라서, 시각화 도구를 사용하여 모델이 어떤 부분에 주의를 기울이는지 직관적으로 파악하는 것이 필요합니다. 3. BERT와 bertviz BERT는 트랜스포머 아키텍처를 기반으로 한 모델로, 다양한 NLP 작업에서..
2023.09.26