Este projeto utiliza Flask — um framework web leve em Python, comum para APIs e microsserviços — para criar sua própria API local, realizando chamadas e retornando as respostas do modelo treinado localmente com base no prompt fornecido.
Clique para expandir a versão em português
Uma versão ajustada do modelo de linguagem GPT-2, projetada para compreender comandos em linguagem natural e gerar descrições estruturadas de tarefas — com nomes de tarefas e horários apropriados — ideal para ferramentas de produtividade, assistentes virtuais e lembretes inteligentes.
# Instale se for a primeira vez
python3 -m venv ai-backend-env
pip install flask transformers torch
source ai-backend-env/bin/activate
# Caso já tenha instalado anteriormente, apenas ative:
source ai-backend-env/bin/activate
# Faça uma chamada para a API local:
curl -X POST http://localhost:5000/generate \
-H "Content-Type: application/json" \
-d '{"prompt": "Crie uma tarefa para ir ao dentista"}'Resposta esperada:
"response": "Tarefa de consulta no dentista adicionada.\n[TASK: Consulta no dentista | TIME: 10:00]"Este projeto apresenta uma implementação prática de ajuste fino do GPT-2 para um assistente de gerenciamento de tarefas em linguagem natural. Dado um prompt do usuário (ex.: "me lembre de ligar para o médico"), o modelo retorna uma resposta estruturada como:
Assistente:
Lembrete criado para ligar para o médico.
[TASK: Ligar para o médico | TIME: 10:30]
- 💬 Entende comandos em linguagem natural
- 📋 Gera tarefas estruturadas no formato
[TASK: ... | TIME: ...] - ⏰ Aprende alocar horários coerentes com o contexto
- 🤖 Modelo ajustado com dataset customizado
- 🧪 Pronto para uso com
transformers.pipeline
{
"text": "Usuário: me lembre de regar as plantas\nAssistente:\nLembrete criado para regar as plantas.\n[TASK: Regar plantas | TIME: 09:00]"
}- Python 3.x
- 🤗 Transformers (
GPT2LMHeadModel) - Hugging Face Datasets
- PyTorch
- Google Colab + aceleração com CUDA
- Carrega e tokeniza o dataset customizado
- Ajusta o GPT-2 com o
Trainerda Hugging Face - Exporta e usa localmente ou em uma pipeline
- Entrada:
"Usuário: terminar o relatório" - Saída:
Assistente:
Tarefa de relatório adicionada.
[TASK: Terminar relatório | TIME: 16:00]
Demonstra a capacidade de personalizar LLMs para tarefas reais, transformando modelos genéricos em assistentes de domínio específico. Ideal para:
- Ferramentas de produtividade/calendário inteligente
- Backends de assistentes virtuais
- Interfaces conversacionais
- Aplicativos de gerenciamento de tempo
- Compreende intenções do usuário
- Gera saídas claras e bem estruturadas
- Sugere horários realistas com base no tipo de tarefa
from transformers import pipeline
generator = pipeline("text-generation", model="./gpt2-tasker", tokenizer="./gpt2-tasker")
prompt = "Usuário: me lembre de ligar para o médico\nAssistente:\n"
output = generator(prompt, max_length=100, do_sample=True)
print(output[0]["generated_text"])Este projeto faz parte da minha exploração prática em:
- Customização de modelos LLM
- Engenharia de prompts
- Curadoria de dados para tarefas reais
Se procura alguém que una proeficiência em deep learning com visão de produto, entre em contato!
This project uses Flask — a lightweight Python web framework, commonly used for APIs & microservices — to create a local API that makes calls and retrieves responses from a locally trained model based on the provided prompt.
Click to expand the English version
A fine-tuned version of the GPT-2 language model designed to understand natural language prompts and generate structured task descriptions — complete with task names and appropriate execution times — ideal for productivity tools, virtual assistants, and smart reminders.
# Install if first time
python3 -m venv ai-backend-env
pip install flask transformers torch
source ai-backend-env/bin/activate
# If not, just activate:
source ai-backend-env/bin/activate
# Call local API
curl -X POST http://localhost:5000/generate \
-H "Content-Type: application/json" \
-d '{"prompt": "Create a task for me to go to the dentist"}'Expected response:
"response": "Dentist appointment task added.\n[TASK: Dentist appointment | TIME: 10:00]"This project showcases a hands-on implementation of fine-tuning GPT-2 for a natural language task management assistant. Given a user prompt (e.g., "remind me to call the doctor"), the model returns a structured response such as:
Assistant:
Reminder set to call the doctor.
[TASK: Call doctor | TIME: 10:30]
- 💬 Understands natural language task commands
- 📋 Generates structured tasks with
[TASK: ... | TIME: ...]format - ⏰ Learns appropriate timing (e.g., workouts in the morning, meetings in the afternoon)
- 🤖 Fully fine-tuned on custom curated dataset
- 🧪 Ready-to-use with
transformerspipeline for inference
{
"text": "User: remind me to water the plants\nAssistant:\nReminder set to water the plants.\n[TASK: Water plants | TIME: 09:00]"
}- Python 3.x
- 🤗 Transformers (
GPT2LMHeadModel) - HuggingFace Datasets
- PyTorch
- Google Colab + CUDA acceleration
- Load and tokenize the custom dataset
- Fine-tune GPT-2 using
Trainerfrom Hugging Face - Export and use the model locally or in a pipeline
- Input:
"User: create a task to finish the report" - Output:
Assistant:
Report task added.
[TASK: Finish report | TIME: 16:00]
This project demonstrates the ability to customize LLMs for real-world tasks, transforming general-purpose language models into domain-specific assistants. Ideal for:
- Smart calendar or productivity tools
- Virtual assistant backends
- Conversational UI systems
- User-centric time management apps
- Understands user intent
- Produces clear and clean outputs
- Generates meaningful time allocations with task descriptions
from transformers import pipeline
generator = pipeline("text-generation", model="./gpt2-tasker", tokenizer="./gpt2-tasker")
prompt = "User: remind me to call the doctor\nAssistant:\n"
output = generator(prompt, max_length=100, do_sample=True)
print(output[0]["generated_text"])This project is part of my practical exploration into:
- LLM fine-tuning
- Prompt engineering
- Data curation for real-world NLP applications
If you're looking for someone who blends deep learning proficiency with product vision, feel free to reach out!