huggingface 20

[AI친구] Hugging Face - Hugging Face와 Google Colab을 통한 데이터셋 직접 접근

데이터 분석가 및 AI 연구자들을 위한 흥미로운 소식이 있습니다. Hugging Face와 Google Colab을 통한 데이터셋 직접 접근 Hugging Face와 Google Colab을 통한 데이터셋 직접 접근이 가능합니다. Hugging Face와 Google Colab의 통합: 이 새로운 기능을 통해 사용자들은 Google Colab 노트북에서 Hugging Face에 호스팅된 70,000개 이상의 데이터셋에 직접 접근할 수 있습니다. 이 통합은 데이터 과학 및 AI 연구에서 데이터 접근을 더욱 원활하고 효율적으로 만드는 중요한 진전입니다. hf:// URL을 통한 간단한 접근: 사용자들은 이제 간단한 hf:// URL 형식을 사용하여 Hugging Face의 데이터셋에 접근할 수 있습니다. 이..

[인공지능 친해지기] Hugging Face - (15) 다국어 개체명 인식 ⑥ Fine Tuning

NER에서 기존 동영상에 이어 관련 모델에 대한 Fine Tuning을 하는 과정에 대하여 살펴보았습니다. 감사합니다. https://youtu.be/gTfhCuO0mUY #huggingface, #개체명인식, #NER , #finetuning, #자연어성능측정 , #transformer , #미세조정, #KS회계보험계리컨설팅 , #KS경영인공지능연구소, #인공지능

[인공지능 친해지기] Hugging Face (15) 다국어 개체명 인식 ③ 토큰 분류를 위한 사용자 정의 모델링

Hugging FaceTransformers 라이브러리는 사용자가 특정 목적에 맞춰 기존의 사전 훈련된 모델을 쉽게 수정하고 확장할 수 있도록 지원합니다. 이를 통해 사용자는새로운 모델을 처음부터 전부 구현하지 않고도, 기존 모델의 구조와 가중치를 활용하여 필요한 목표를 달성할 수 있는 맞춤형 모델을 효율적으로 만들 수 있습니다. https://youtu.be/2GYGAfVr6VE

[인공지능 친해지기] Hugging Face - (15) 다국어 개체명 인식_② 다국어트랜스포머와 XLM-R토큰화

XLM-R (Cross-lingual Language Model - RoBERTa)은 다국어 트랜스포머 모델로, 여러 언어의 데이터를 학습하여 다양한 언어 간의 자연어 처리 작업을 수행할 수 있습니다. XLM-R은 mBERT의 후속 모델로, 더 큰 사전 훈련 말뭉치와 개선된 훈련 방법을 사용하여 더 높은 성능을 제공합니다. XLM-R 등에서 사용되는 SentencePiece 토큰화 등에 대하여 살펴보겠습니다. https://youtu.be/hZWxaBq7ebI

[인공지능 친해지기] Hugging Face - (14) HF와 Google이 만든 희소식!

유튜브 https://youtu.be/glhfZTWfjxE 기존 문제점 (고비용과 높은 사양의 메모리 필요) SDXL(Stable Diffusion XL)은 고품질의 사실적인 콘텐츠 생성을 가능하게 하는 제너레이티브 AI 모델임. 그러나 이 모델을 사용하려면 높은 계산 비용과 메모리 요구 사항에 대응해야 함. SDXL은 이전 버전보다 UNet 컴포넌트가 약 3배 더 크며, 이로 인해 프로덕션 환경에서의 배포가 어려웠음 문제점 해결 - (또 하나의 변화) 2023.10.3일 Google은 Hugging Face Diffusion team의 도움을 받아 Hugging Face Spaces에 초고속 SDXL 추론앱을 출시하였음 - (허깅페이스와 구글 공동 작업으로 해결) 허깅 페이스 디퓨저(Hugging Fa..

[인공지능 친해지기] Hugging Face - 트랜스포머 (13) Attention 시각화 실습

트랜스포머에서의 Attention 시각화: BERT를 활용한 실습 1. 트랜스포머와 Attention 트랜스포머는 자연어 처리 분야에서 중요한 아키텍처입니다. 그리고 그 핵심은 'Attention' 메커니즘입니다. Attention은 입력 데이터의 중요한 부분에 '주의'를 기울이게 하는 방법으로, 문장의 다양한 구문적 및 의미적 관계를 동시에 학습할 수 있게 해줍니다. 2. Attention 시각화의 중요성 Attention 메커니즘의 작동 방식을 직관적으로 이해하는 것은 복잡할 수 있습니다. 따라서, 시각화 도구를 사용하여 모델이 어떤 부분에 주의를 기울이는지 직관적으로 파악하는 것이 필요합니다. 3. BERT와 bertviz BERT는 트랜스포머 아키텍처를 기반으로 한 모델로, 다양한 NLP 작업에서..