Hugging Face

empresa franco-americana

Hugging Face é uma empresa franco-americana que desenvolve ferramentas para construção de aplicativos usando aprendizado de máquina, com sede na cidade de Nova Iorque. É mais notável por sua biblioteca de transformadores construída para aplicativos de processamento de linguagem natural e sua plataforma que permite aos usuários compartilhar modelos e conjuntos de dados de aprendizado de máquina.

História editar

A empresa foi fundada em 2016 pelos empresários franceses Clément Delangue, Julien Chaumond e Thomas Wolf na cidade de Nova Iorque, originalmente como uma empresa que desenvolvia um aplicativo chatbot voltado para adolescentes.[1] Depois de abrirem o código-fonte do modelo por trás do chatbot, a empresa passou a se voltar mais ao aprendizado de máquina e relacionados, também de código aberto.


Em 28 de abril de 2021, a empresa lançou o BigScience Research Workshop em colaboração com vários outros grupos de pesquisa para lançar um modelo de linguagem em larga escala.[2] Em 2022, anunciou-se também o BLOOM, modelo de linguagem com cerca de 176 bilhões de parâmetros.

Em 21 de dezembro de 2021, a empresa anunciou a aquisição da Gradio, uma biblioteca de software usada para fazer versões de testes (as chamadas "demo") de modelos de aprendizado de máquina em navegadores.[3]


Em 13 de maio de 2022, a empresa apresentou seu Programa Estudante Embaixador para ajudar a cumprir uma meta estabelecida de aumentar o ensino sobre aprendizado de máquina a 5 milhões de pessoas até 2023.[4]


Em fevereiro de 2023, a empresa anunciou parceria com Amazon Web Services (AWS). A empresa também disse que a próxima geração do BLOOM será executada no Trainium, um acelerador de aprendizado de máquina criado pela própria AWS.[5][6][7]

Serviços e tecnologias editar

Biblioteca de Transformadores editar

A biblioteca Transformers é um acervo em Python que contém implementações de código aberto de modelos de transformadores para tarefas de texto, imagem e áudio. É compatível com as bibliotecas de aprendizagem profunda PyTorch, TensorFlow e JAX e inclui implementações de modelos notáveis como BERT e GPT-2.[8]

Hugging Face Hub editar

O Hugging Face Hub é uma plataforma (serviço web centralizado) para hospedagem de: [9]

  • Repositórios de código baseados em Git, incluindo discussões para projetos.
  • modelos, também com controle de versão baseado em Git;
  • base de dados, principalmente em texto, imagens e áudio;
  • aplicações web ("espaços" e "widgets"), destinadas a demonstrações em pequena escala de aplicações de aprendizagem automática.

Outras bibliotecas editar

Além do Transformers e do Hugging Face Hub, esse ecossistema também conta com bibliotecas para outras tarefas, como processamento de conjuntos de dados ("Datasets"), avaliação de modelo ("Evaluate"), simulação ("Simulate"), demonstrações de aprendizado de máquina ("Gradio").[10]


Referências

  1. «Hugging Face wants to become your artificial BFF». TechCrunch (em inglês). 9 de março de 2017. Consultado em 17 de setembro de 2023 
  2. «Inside BigScience, the quest to build a powerful open language model». 10 de janeiro de 2022 
  3. «Gradio is joining Hugging Face!». huggingface.co. Consultado em 20 de agosto de 2022 
  4. «Student Ambassador Program's call for applications is open!». huggingface.co. Consultado em 20 de agosto de 2022 
  5. Bass, Dina (21 de fevereiro de 2023). «Amazon's Cloud Unit Partners With Startup Hugging Face as AI Deals Heat Up». Bloomberg News 
  6. Nellis, Stephen (21 de fevereiro de 2023). «Amazon Web Services pairs with Hugging Face to target AI developers». Reuters 
  7. «AWS and Hugging Face collaborate to make generative AI more accessible and cost efficient | AWS Machine Learning Blog». aws.amazon.com (em inglês). 21 de fevereiro de 2023. Consultado em 25 de agosto de 2023 
  8. «🤗 Transformers». huggingface.co. Consultado em 20 de agosto de 2022 
  9. «Hugging Face Hub documentation». huggingface.co. Consultado em 20 de agosto de 2022 
  10. «Hugging Face - Documentation». huggingface.co. Consultado em 18 de fevereiro de 2023 

Ligações externas editar