Preguntas comunes sobre Seizn Memory API, desde los primeros pasos hasta operaciones avanzadas.
Q1¿Qué es Seizn Memory y qué problema resuelve?
Seizn Memory es una infraestructura de memoria de IA que proporciona memoria persistente y buscable para aplicaciones de IA. A diferencia de las bases de datos vectoriales que solo almacenan/buscan vectores, Seizn incluye la capa de producto completa: extracción de memoria, gestión de políticas, gestión de claves, eliminación, registros de auditoría y SDKs. Resuelve el problema de mantener el contexto entre sesiones de IA y habilitar experiencias de IA personalizadas.
Primeros Pasos
Q2¿En qué se diferencia Seizn de bases de datos vectoriales como Pinecone o Weaviate?
Las bases de datos vectoriales son infraestructura de almacenamiento/búsqueda para vectores. Seizn es un sistema de memoria completo construido sobre eso, que proporciona: extracción automática de memoria de conversaciones, clasificación de tipos de memoria, gestión de namespace/scope, rotación de claves API, registro de auditoría, SDKs y características de gobernanza. Piénsalo como 'infraestructura de memoria' vs 'infraestructura de búsqueda'.
Primeros Pasos
Q3¿Necesito RAG para usar Seizn?
No. El punto de partida más común es: almacenar memoria -> buscar -> inyectar en el prompt. RAG (composición automática de contexto + generación de respuesta) es el siguiente paso. Puedes empezar simple y añadir complejidad según sea necesario.
Primeros Pasos
Q4¿Cuál es la forma más rápida de construir un PoC?
1) POST /api/memories para almacenar una preferencia de usuario. 2) GET /api/memories para buscar. 3) Inyectar los resultados en tu prompt de LLM. 4) Después, añadir /api/extract para auto-extracción y /api/query para respuestas aumentadas con memoria.
Primeros Pasos
Q5¿Qué debería almacenar en /api/memories?
Almacena información que permanece válida entre conversaciones: preferencias (tono, idioma, formato), hechos (trabajo, herramientas, estructura del proyecto), instrucciones ("siempre resumir en tablas"), relaciones ("Alice es la líder del equipo"). Evita almacenar datos temporales o específicos de sesión a menos que uses scope de sesión.
Conceptos Básicos
Q6¿Qué datos NO debería almacenar?
Nunca almacenes: contraseñas, claves API, tokens, cookies de sesión (info de auth), números de seguro social, números de pasaporte, cuentas bancarias (PII), información de tarjetas de crédito (datos de pago). Para datos temporales, usa scope de sesión con TTL si es necesario.
Conceptos Básicos
Q7¿Por qué es importante el namespace?
Namespace separa las memorias por proyecto/tenant/entorno. Sin él, los datos se mezclan, la calidad de búsqueda baja, y la eliminación/exportación se vuelve difícil. Recomendado: 'org:acme/app:chat/env:prod' o 'project:myapp/env:staging'. Nunca uses solo 'default' en producción.
user: Preferencias que aplican globalmente a un usuario. session: Objetivos o contexto válido solo para esta conversación. agent: Reglas específicas para un agente en un sistema multi-agente. Usar scope correctamente reduce la longitud del prompt y mejora la consistencia de respuesta.
Conceptos Básicos
Q9¿Qué son los memory_types y por qué importan?
memory_type clasifica las memorias: fact (info inmutable), preference (elecciones del usuario), instruction (reglas a seguir), relationship (conexiones personas/org), experience (eventos pasados). Este es el eje más poderoso para filtrar, eliminar y aplicar políticas.
Conceptos Básicos
Q10¿Cómo funcionan threshold y limit?
limit: Número de memorias candidatas a recuperar (muy bajo = perder relevantes, muy alto = contexto ruidoso). threshold: corte de similitud 0-1 (más alto = más estricto). Empieza con limit=10, threshold=0.7. Si faltan memorias, baja threshold a 0.6 y sube limit a 20. Si hay resultados irrelevantes, sube threshold a 0.75-0.8.
Búsqueda y Recuperación
Q11¿Por qué mis resultados de búsqueda son irrelevantes?
Usualmente es uno de: 1) namespaces mezclados, 2) demasiadas memorias almacenadas (ruido), 3) threshold muy bajo, 4) contenido muy abstracto ('le gustan cosas' vs hechos específicos). Solución: separar namespaces, hacer contenido específico, subir threshold.
Búsqueda y Recuperación
Q12La calidad de búsqueda bajó al crecer las memorias. ¿Qué hago?
Añade puntuación de importancia y mantén solo memorias de alta importancia. Usa TTL para auto-expirar memorias antiguas. Periódicamente fusiona memorias similares en resúmenes. Separa namespaces para reducir el alcance de búsqueda.
Búsqueda y Recuperación
Q13¿Cómo debería usar /api/extract?
Flujo recomendado: 1) Llamar con auto_store=false para previsualizar memorias extraídas. 2) Mostrar resultados al usuario para confirmación. 3) Almacenar solo memorias aprobadas. 4) Una vez probada la calidad de extracción, cambiar a auto_store=true para automatización.
Extracción
Q14¿Cuál es la diferencia entre model=haiku y model=sonnet?
haiku: Más rápido, más barato, bueno para la mayoría de casos. sonnet: Más preciso, mejor para extracciones importantes (onboarding, contratos, políticas). Usa haiku para extracción masiva/inicial, sonnet para escenarios de alto riesgo.
Extracción
Q15¿Puedo modificar una memoria después de almacenarla?
Sí, pero el patrón recomendado es: crear nueva memoria + eliminar/archivar la antigua. Este enfoque es mejor para pistas de auditoría y previene problemas de regresión.
Operaciones
Q16¿Cómo elimino memorias?
Dos enfoques: 1) Eliminar por ID (preciso), 2) Eliminar por namespace (limpieza masiva). Para empresa/cumplimiento, asegura 'eliminación completa + registro de auditoría'. Documenta tu política de eliminación claramente.
Operaciones
Q17Estoy recibiendo 429 Too Many Requests. ¿Qué debo hacer?
Has alcanzado el límite de tasa. Soluciones: 1) Implementar backoff exponencial (1s -> 2s -> 4s). 2) Encolar peticiones del lado del servidor. 3) Reducir frecuencia de peticiones: cachear consultas duplicadas, operaciones por lotes, bajar frecuencia de extracción.
Operaciones
Q18¿Cómo reduzco costos?
Mayores impulsores de costo: 1) Frecuencia de extracción - reducir llamadas. 2) Alcance de búsqueda - usar namespace para acotar. 3) Elección de modelo - usar haiku para rutina, sonnet para importante. 4) Caché - cachear consultas repetidas. 5) Operaciones por lotes cuando sea posible.
Operaciones
Q19¿Puedo usar la clave API en el navegador (frontend)?
No recomendado - alto riesgo de exposición de clave. Llama a Seizn desde tu servidor (Next.js Route Handler, Cloudflare Worker, función serverless) y haz que el navegador llame a tu servidor. Nunca expongas claves API al código del lado del cliente.
Seguridad y Cumplimiento
Q20¿Qué documentación necesita mi equipo de seguridad/legal?
Querrán: 1) Alcance de datos (qué se almacena/no se almacena), 2) Cifrado (en reposo: AES-256, en tránsito: TLS), 3) Método de aislamiento de tenant, 4) Política de eliminación/retención, 5) Acceso a registro de auditoría, 6) Política de rotación/expiración de claves. Mantén una página de Seguridad y Gobernanza en tus docs.
Seguridad y Cumplimiento
Q21¿Qué es el sistema de memoria Graph-RAG?
Seizn utiliza una arquitectura Graph-RAG que combina embeddings vectoriales con relaciones de grafo de conocimiento. Las memorias se almacenan como nodos con aristas tipadas (relates_to, supports, contradicts, etc.). Esto permite: recuperación contextual a través del recorrido del grafo, detección automática de comunidades para clustering temático, y seguimiento temporal del conocimiento con períodos de validez.
Conceptos Básicos
Q22¿Qué es el sistema de niveles de memoria (Hot/Warm/Cold)?
Seizn organiza automáticamente las memorias en niveles según el uso: nivel Hot (acceso frecuente, mantenido en caché rápido), nivel Warm (acceso ocasional, recuperación estándar), nivel Cold (raramente usado, archivado pero buscable). El gestor de niveles promueve/degrada automáticamente las memorias según los patrones de acceso, optimizando tanto el rendimiento como el costo.
Conceptos Básicos
Q23¿Cómo funciona la búsqueda cross-lingual?
Seizn almacena tanto el contenido original como una representación canónica en inglés para cada memoria. Las consultas de búsqueda se comparan con ambos embeddings, habilitando escenarios como buscar en inglés y encontrar memorias en hindi. Usamos modelos de embedding multilingües (BGE-M3, LaBSE) que soportan más de 100 idiomas con alta alineación cross-lingual.
Búsqueda y Recuperación
Q24¿Qué idiomas se soportan para la extracción de memoria?
Seizn soporta más de 35 idiomas para extracción y búsqueda de memoria, incluyendo: inglés, chino (simplificado/tradicional), hindi, español, francés, alemán, japonés, coreano, ruso, ucraniano, árabe, y todos los principales idiomas índicos (tamil, telugu, bengalí, etc.). El idioma se detecta automáticamente con más del 95% de precisión.
Búsqueda y Recuperación
Q25¿Qué es la integración MCP y cómo la uso?
MCP (Model Context Protocol) permite a asistentes de IA como Claude Desktop acceder directamente a las memorias de Seizn. Instala nuestro servidor MCP (npx @seizn/mcp-server), añádelo a tu configuración de Claude Desktop, y el asistente puede guardar y recuperar memorias automáticamente durante las conversaciones. Esto permite personalización persistente entre sesiones.
Primeros Pasos
Q26¿Qué tecnología impulsa el sistema de memoria de Seizn?
Seizn está construido sobre: Next.js 16 con React Server Components, Supabase (PostgreSQL + pgvector para búsqueda vectorial), modelo Voyage AI voyage-3 (embeddings de 1024 dimensiones), Claude para extracción y análisis de memoria. Usamos índices HNSW para búsqueda vectorial sub-100ms, suscripciones WebSocket en tiempo real, y Redis para caché.
Primeros Pasos
Q27¿Cómo integro Seizn con mi flujo de trabajo LLM?
Tres enfoques principales: 1) REST API - llamadas HTTP directas para control total, 2) SDKs (TypeScript/Python) - wrappers con tipos seguros y lógica de reintentos, 3) Servidor MCP - integración automática con Claude Desktop y otros asistentes compatibles con MCP. Para producción, recomendamos el SDK con llamadas del lado del servidor para proteger tu clave API.
Operaciones
Q28¿Qué es la Context API y cómo la uso?
La Context API (GET /api/context) devuelve una cadena pre-formateada lista para inyectar en tu prompt de LLM. Combina: perfil de usuario, memorias recientes, hechos relevantes y contexto del grafo. Usa format=brief (~500 tokens), detailed (~1500 tokens), o extended (~3000 tokens) según tu presupuesto de contexto.
Operaciones
¿Aún tienes preguntas?
Consulta nuestra documentación o contacta con nuestro equipo de soporte.