Skip to content

johncortes117/Agente-IAma

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

19 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Agente IAma 🦙🤖

Hackathon: Llama Impact PAN LATAM Licencia: MIT

Agente IAma es un asistente de inteligencia artificial diseñado para ayudar a jóvenes de Latinoamérica a construir su futuro educativo y profesional. Utilizando los avanzados modelos de lenguaje Llama 3, IAma combina el análisis de datos académicos, intereses personales y características de personalidad para proporcionar recomendaciones personalizadas de carreras y planes educativos.

🌟 Inspiración

El proyecto aborda un problema crítico en la región: muchos estudiantes no saben qué carrera elegir al terminar la secundaria, lo que puede llevar a abandonos tempranos en la universidad. IAma busca empoderar a los jóvenes con orientación informada y personalizada, fomentando decisiones de vida más conscientes.

🚀 Funcionalidades Principales

  • Análisis Académico: Procesa datos de asignaturas y calificaciones para identificar áreas de mayor potencial.
  • Test de Personalidad e Intereses: Ayuda a conectar los gustos del usuario con carreras afines.
  • Orientación Dinámica: Responde preguntas y ofrece recursos educativos basados en las necesidades individuales.
  • Compatibilidad Multimodal: Aprovecha las capacidades avanzadas de Llama 3 para generar recomendaciones precisas y adaptadas.

🛠️ Tecnologías

  • Modelo LLM: Llama 3.1 405B Instruct Turbo
  • Lenguaje y Framework: Python y FastAPI para el backend.

💡 Equipo

  • John Cortés
  • Angelo Benavides

📋 Cómo Empezar

Sigue estos pasos para configurar el proyecto localmente:

  1. Clona este repositorio:

    git clone https://github.com/johncortes117/agente-iama.git
    cd agente-iama/
  2. Crear el ambiente virtual:

    Windows:

    python -m venv env

    Linux/macOS:

    python3 -m venv env
  3. Activar el entorno virtual:

    Windows:

    .\env\Scripts\activate

    Linux/macOS:

    source env/bin/activate
  4. Instalar las dependencias:

    pip install -r requirements.txt
  5. Configurar el archivo .env:

    Este proyecto utiliza variables de entorno para configurar el acceso a la API. Para crear el archivo .env con las variables necesarias, ejecuta el siguiente comando en la raíz del proyecto:

    echo "API_URL=tu_url_aqui" > .env
    echo "API_KEY=tu_api_key_aqui" >> .env

About

Project implementing a Llama-based LLM model for the Llama Impact Pan-LATAM Hackathon.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors