GPT-2 é um modelo de transformadores pré-treinado em um corpus muito grande de dados em inglês de forma auto-supervisionada. Isso significa que foi pré-treinado apenas nos textos brutos, sem que humanos os rotulassem de qualquer forma (o que é por isso que pode usar muitos dados publicamente disponíveis) com um processo automático para gerar entradas e rótulos a partir desses textos. Mais precisamente, foi treinado para adivinhar a próxima palavra em frases. Quando os usuários deixam avaliações de GPT2, o G2 também coleta perguntas comuns sobre o uso diário de GPT2. Essas perguntas são então respondidas por nossa comunidade de 850 mil profissionais. Envie sua pergunta abaixo e participe da Discussão do G2.

Todas as Discussões de GPT2

Desculpe...
Não há perguntas sobre GPT2 ainda.

Responda a algumas perguntas para ajudar a comunidade GPT2
Já usou GPT2 antes?
Sim