Escolha um idioma
0 avaliações
VESSL é uma plataforma de ML/MLOps de ponta a ponta que permite que engenheiros de aprendizado de máquina (MLEs) personalizem e executem tarefas escaláveis de treinamento, otimização e inferência em segundos. Essas tarefas individuais podem então ser encadeadas usando nosso gerenciador de fluxo de trabalho para CI/CD. Abstraímos os backends de computação complexos necessários para gerenciar infraestruturas e pipelines de ML em uma interface web e CLI fáceis de usar, acelerando assim o tempo de resposta do treinamento para a implantação. A construção, treinamento e implantação de modelos de aprendizado de máquina em produção dependem de backends de computação complexos e detalhes do sistema. Isso força cientistas de dados e pesquisadores de ML a gastar a maior parte de seu tempo enfrentando desafios de engenharia e infraestrutura obscura em vez de aproveitar suas competências principais – desenvolver arquiteturas de modelo de última geração. Soluções existentes como Kubeflow e Ray ainda são muito de baixo nível e requerem meses de configuração complexa por uma equipe dedicada de engenharia de sistemas. As principais equipes de ML na Uber, Deepmind e Netflix têm uma equipe dedicada de engenheiros de MLOps e uma plataforma interna de ML. No entanto, a maioria dos praticantes de ML, mesmo aqueles em grandes empresas de software como o Yahoo, ainda dependem de scripts improvisados e arquivos YAML não mantidos e desperdiçam horas apenas para configurar um ambiente de desenvolvimento. VESSL ajuda empresas de qualquer tamanho e indústria a adotar práticas escaláveis de ML/MLOps instantaneamente. Ao eliminar as sobrecargas nos sistemas de ML com o VESSL, empresas como Hyundai Motors, Samsung e Cognex estão colocando em produção pipelines de aprendizado de máquina de ponta a ponta em poucas horas.