Logo
Comenzar

Módulo de IA

Desarrolla aplicaciones de Chat y Generación de Imágenes con una mentalidad de "portal de aprendizaje".

El módulo de IA viene preconfigurado con el SDK de IA de Vercel, adaptado para crear interfaces tipo ChatGPT y generadores de imágenes. En esta guía, aprenderá a personalizar el sistema y a aprovechar las funciones de Empire.

Gestor de Plantillas de Prompt

Gestionar los prompts del sistema desde una ubicación central garantiza la coherencia y la facilidad de mantenimiento. El módulo de IA de RapidCore recomienda organizar sus prompts en el archivo apps/ai-starter/src/lib/prompts.ts.

Creación de una Plantilla de Ejemplo

Puede estructurar sus prompts de sistema de la siguiente manera:

// apps/ai-starter/src/lib/prompts.ts

export const SYSTEM_PROMPTS = {
  CONSULTANT: "Eres un consultor experto en SaaS para RapidCore. Guías a los usuarios en la arquitectura técnica.",
  BLOG_WRITER: "Eres un redactor de contenidos creativo. Preparas publicaciones de blog atractivas y optimizadas para SEO.",
};

Puede importar y utilizar fácilmente estas plantillas en sus rutas de API (api/ai/chat/route.ts).

Nota de Aprendizaje

Almacenar sus prompts como variables constantes garantiza que se conserven las mismas instrucciones al cambiar entre diferentes modelos (GPT-4, Claude, etc.) y reduce el riesgo de "deriva de prompt".

Guía Técnica de Vector DB y RAG

Para permitir que los modelos de IA hablen no solo con información general, sino con sus datos privados (documentos, listas de productos, etc.), se utiliza la Generación Aumentada por Recuperación (RAG).

Configuración de Supabase pgvector

  1. Vaya al panel de Supabase y active la extensión pgvector a través del Editor SQL:

    create extension vector;
    
  2. Cree una tabla para almacenar sus documentos:

    create table documents (
      id bigserial primary key,
      content text,
      embedding vector(1536) -- 1536 dimensiones para incrustaciones de OpenAI
    );
    

Incrustación de Documentos (Embedding)

Cuando se añade un nuevo documento, puede convertir su contenido en un vector utilizando el modelo text-embedding-3-small de OpenAI y guardarlo. RapidCore incluye utilidades en vector-utils.ts para facilitar este proceso.

Mecanismo de Seguimiento de Tokens y Créditos

RapidCore ofrece un sistema de créditos avanzado para mantener bajo control las operaciones de IA de alto costo.

Establecer Límites de Tokens

Los límites basados en el usuario se gestionan en apps/ai-starter/src/actions/ai-credits.ts. Puede establecer límites de tokens diarios o mensuales según el plan de suscripción del usuario (Starter, Pro, Empire):

const PLAN_LIMITS = {
  STARTER: 100,
  PRO: 500,
  EMPIRE: "unlimited" // Acceso ilimitado
};

Ciclo de Compra de Créditos

Cuando un usuario se queda sin créditos, puede comprar nuevos paquetes de créditos a través de Stripe Checkout. Después de un pago exitoso, se activa el Webhook de Stripe (api/webhooks/stripe/route.ts) y el campo credits en la base de datos del usuario se actualiza instantáneamente.

Agentes de IA y Fine-tuning (Exclusivo de Empire)

El paquete Empire incluye una arquitectura de Agentes de IA que automatiza flujos de trabajo complejos.

Encadenamiento de Modelos

Por ejemplo, un "Agente Redactor de Blog" pasa por estas etapas:

  1. Modelo Investigador: Recopila palabras clave y fuentes sobre el tema.
  2. Modelo Escritor: Crea el primer borrador con los datos recopilados.
  3. Modelo Editor: Comprueba el lenguaje, la ortografía y el SEO.

Procesos de Fine-tuning

Para que los modelos sean más capaces con sus conjuntos de datos personalizados:

  • Recopilación de Datos: Acumule comentarios de los usuarios y resultados exitosos en formato jsonl.
  • Exportación: Exporte datos al panel de OpenAI o Anthropic en el formato adecuado con un solo clic.

Depuración (Preguntas Frecuentes)

1. Error de "Clave de API no válida"

Asegúrese de que las variables OPENAI_API_KEY o ANTHROPIC_API_KEY en su archivo .env estén configuradas correctamente. Compruebe que no ha dejado espacios.

2. Problemas de tiempo de espera de Vercel

En el plan Vercel Hobby, la duración de la función está limitada a 10 segundos. Para respuestas de IA de larga duración, asegúrese de usar el modo streaming: true o actualice a Vercel Pro.

3. Límite de velocidad excedido (429)

Puede recibir "429 Too Many Requests" cuando las solicitudes se envían con demasiada frecuencia. En este caso, debe aumentar sus límites desde el panel del proveedor de API o añadir colas entre las solicitudes.

Consejo

En el desarrollo local, puede ver todo el tráfico de prompts/respuestas en la consola del navegador utilizando la bandera NEXT_PUBLIC_DEBUG_AI=true.