Capa do Chatbot

🏋️ Chatbot de Treino e Nutrição

Este modelo foi treinado para atuar como um assistente virtual especializado em educação física e nutrição, com foco em iniciantes que desejam montar planos de treino e dieta personalizados.


📚 Dataset

O modelo foi treinado com um conjunto de dados customizado contendo perguntas e respostas sobre:

  • Treinos semanais para diferentes níveis
  • Dietas para emagrecimento, hipertrofia e manutenção
  • Restrições alimentares (vegetarianismo, intolerância à lactose)
  • Recomendações de frequência, recuperação e mobilidade

Formato: JSONL com campos "input" e "output"
Repositório do dataset: wpbcpaz/fitness-chatbot-dataset


🧠 Modelo

  • Base: distilgpt2
  • Tipo: Causal Language Model
  • Idioma: Português
  • Tamanho: Leve, ideal para aplicações web e mobile

🎯 Aplicações

  • Chatbots para academias ou apps de saúde
  • Interfaces conversacionais em sites
  • Ferramentas de onboarding para novos praticantes
  • Assistentes virtuais para planos alimentares básicos

🧪 Como usar

from transformers import AutoTokenizer, AutoModelForCausalLM

model = AutoModelForCausalLM.from_pretrained("wpbcpaz/fitness-chatbot-model")
tokenizer = AutoTokenizer.from_pretrained("wpbcpaz/fitness-chatbot-model")

input_text = "Usuário: Tenho 30 anos, treino 4x por semana e quero ganhar massa muscular.\nChatbot:"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0]))

Hiperparâmetros de treinamento

Os seguintes hiperparâmetros foram utilizados durante o treinamento:

  • taxa_de_aprendizado: 5e-05
  • tamanho_do_lote_treinamento: 4
  • tamanho_do_lote_avaliacao: 8
  • semente: 42
  • otimizador: Use OptimizerNames.ADAMW_TORCH_FUSED com betas=(0.9,0.999) e epsilon=1e-08 e optimizer_args=Sem argumentos adicionais para o otimizador
  • tipo_de_scheduler_lr: linear
  • numero_de_epocas: 3
  • treinamento_com_precisao_mista: AMP Nativo

Versões do framework

  • Transformers 4.56.2
  • Pytorch 2.8.0+cu126
  • Datasets 4.0.0
  • Tokenizers 0.22.1

Limitações encontradas

Limitações de Treinamento O treinamento deste modelo de inteligência artificial via CPU (unidade de processamento central) é inviável devido a limitações de hardware. A arquitetura da CPU é otimizada para tarefas sequenciais e de propósito geral, enquanto o treinamento de modelos de linguagem de grande escala exige um processamento massivo em paralelo.

O aviso de erro em plataformas que rodam códigos python, como o Google Colab: 'pin_memory' argument is set as true but no accelerator is found... sinaliza que o ambiente de treinamento não encontrou um acelerador, como uma GPU (unidade de processamento gráfico) ou TPU. Sem um acelerador, o processo:

  • Atinge lentidão extrema: Um treinamento que levaria horas em uma GPU pode se estender por semanas ou meses na CPU.

  • Gera custos elevados: O tempo de computação e o consumo de energia tornam o processo financeiramente insustentável a longo prazo.

  • Recomenda-se enfaticamente o uso de um ambiente com aceleração por GPU para qualquer tentativa de treinamento ou ajuste fino do modelo.

📄 Licença

Este modelo está disponível sob a licença MIT. Uso livre para fins educacionais e não comerciais. Para aplicações comerciais, recomenda-se consultar o desenvolvedor.

✒️ Autor

Desenvolvido por Wilder Paz
Projeto original em desenvolvimento: Plano de Treino Semanal com IA desenvolvido com Htmls, Vanilla JS, Tailwind CSS e Gemini IA

Downloads last month
13
Safetensors
Model size
81.9M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Dataset used to train wpbcpaz/fitness-chatbot-model

Space using wpbcpaz/fitness-chatbot-model 1

Evaluation results