Введение в библиотеку Transformers и платформу Hugging Face
Исходники: https://github.com/huggingface/transformers
Документация: https://huggingface.co/docs/transformers/main/en/index
Платформа Hugging Face это коллекция готовых современных предварительно обученных Deep Learning моделей. А библиотека Transformers предоставляет инструменты и интерфейсы для их простой загрузки и использования. Это позволяет вам экономить время и ресурсы, необходимые для обучения моделей с нуля.
Модели решают весьма разнообразный спектр задач:
NLP: classification, NER, question answering, language modeling, summarization, translation, multiple choice, text generation.
CV: classification, object detection,segmentation.
Audio: classification, automatic speech recognition.
Multimodal: table question answering, optical character recognition, information extraction from scanned documents, video classification, visual question answering.
Reinforcement Learning
Time Series
Одна и та же задача может решаться различными архитектурами и их список впечатляет - более 150 на текущий момент. Из наиболее известных: Vision Transformer (ViT), T5, ResNet, BERT, GPT2. На этих архитектурах обучены более 60 000 моделей.
Исходники: https://github.com/huggingface/transformers
Документация: https://huggingface.co/docs/transformers/main/en/index
Платформа Hugging Face это коллекция готовых современных предварительно обученных Deep Learning моделей. А библиотека Transformers предоставляет инструменты и интерфейсы для их простой загрузки и использования. Это позволяет вам экономить время и ресурсы, необходимые для обучения моделей с нуля.
Модели решают весьма разнообразный спектр задач:
NLP: classification, NER, question answering, language modeling, summarization, translation, multiple choice, text generation.
CV: classification, object detection,segmentation.
Audio: classification, automatic speech recognition.
Multimodal: table question answering, optical character recognition, information extraction from scanned documents, video classification, visual question answering.
Reinforcement Learning
Time Series
Одна и та же задача может решаться различными архитектурами и их список впечатляет - более 150 на текущий момент. Из наиболее известных: Vision Transformer (ViT), T5, ResNet, BERT, GPT2. На этих архитектурах обучены более 60 000 моделей.