Domande Frequenti

Domande comuni sull'API Seizn Memory, dai primi passi alle operazioni avanzate.

Q1Cos'e Seizn Memory e quale problema risolve?
Seizn Memory e un'infrastruttura di memoria IA che fornisce memoria persistente e ricercabile per applicazioni IA. A differenza dei database vettoriali che archiviano/ricercano solo vettori, Seizn include il layer di prodotto completo: estrazione memoria, gestione policy, gestione chiavi, eliminazione, log di audit e SDK. Risolve il problema di mantenere il contesto tra sessioni IA e abilitare esperienze IA personalizzate.
Primi Passi
Q2In cosa differisce Seizn da database vettoriali come Pinecone o Weaviate?
I database vettoriali sono infrastruttura di archiviazione/ricerca per vettori. Seizn e un sistema di memoria completo costruito sopra, che fornisce: estrazione automatica di memoria dalle conversazioni, classificazione tipi di memoria, gestione namespace/scope, rotazione chiavi API, logging di audit, SDK e funzionalita di governance. Pensalo come 'infrastruttura di memoria' vs 'infrastruttura di ricerca'.
Primi Passi
Q3Devo usare RAG per usare Seizn?
No. Il punto di partenza piu comune e: archivia memoria -> cerca -> inietta nel prompt. RAG (composizione automatica contesto + generazione risposta) e il passo successivo. Puoi iniziare semplice e aggiungere complessita secondo necessita.
Primi Passi
Q4Qual e il modo piu veloce per costruire un PoC?
1) POST /api/memories per archiviare una preferenza utente. 2) GET /api/memories per cercare. 3) Inietta i risultati nel tuo prompt LLM. 4) Dopo, aggiungi /api/extract per auto-estrazione e /api/query per risposte aumentate con memoria.
Primi Passi
Q5Cosa dovrei archiviare in /api/memories?
Archivia informazioni che rimangono valide tra conversazioni: preferenze (tono, lingua, formato), fatti (lavoro, strumenti, struttura progetto), istruzioni ("riassumi sempre in tabelle"), relazioni ("Alice e la team leader"). Evita di archiviare dati temporanei o specifici della sessione a meno che tu non usi scope sessione.
Concetti Base
Q6Quali dati NON dovrei archiviare?
Non archiviare mai: password, chiavi API, token, cookie di sessione (info auth), numeri previdenza sociale, numeri passaporto, conti bancari (PII), informazioni carte di credito (dati pagamento). Per dati temporanei, usa scope sessione con TTL se necessario.
Concetti Base
Q7Perche il namespace e importante?
Il namespace separa le memorie per progetto/tenant/ambiente. Senza, i dati si mescolano, la qualita di ricerca cala, e eliminazione/esportazione diventano difficili. Raccomandato: 'org:acme/app:chat/env:prod' o 'project:myapp/env:staging'. Non usare mai solo 'default' in produzione.
Concetti Base
Q8Quando dovrei usare scope (user/session/agent)?
user: Preferenze che si applicano globalmente a un utente. session: Obiettivi o contesto validi solo per questa conversazione. agent: Regole specifiche per un agente in un sistema multi-agente. Usare scope correttamente riduce la lunghezza del prompt e migliora la consistenza delle risposte.
Concetti Base
Q9Cosa sono i memory_types e perche sono importanti?
memory_type classifica le memorie: fact (info immutabile), preference (scelte utente), instruction (regole da seguire), relationship (connessioni persone/org), experience (eventi passati). Questo e l'asse piu potente per filtrare, eliminare e applicare policy.
Concetti Base
Q10Come funzionano threshold e limit?
limit: Numero di memorie candidate da recuperare (troppo basso = perdi rilevanti, troppo alto = contesto rumoroso). threshold: cutoff similarita 0-1 (piu alto = piu rigoroso). Inizia con limit=10, threshold=0.7. Se mancano memorie, abbassa threshold a 0.6 e alza limit a 20. Se risultati irrilevanti, alza threshold a 0.75-0.8.
Ricerca e Recupero
Q11Perche i miei risultati di ricerca sono irrilevanti?
Di solito e uno di: 1) namespace mescolati, 2) troppe memorie archiviate (rumore), 3) threshold troppo basso, 4) contenuto troppo astratto ('gli piacciono cose' vs fatti specifici). Soluzione: separa namespace, rendi contenuto specifico, alza threshold.
Ricerca e Recupero
Q12La qualita di ricerca e calata con la crescita delle memorie. Cosa faccio?
Aggiungi punteggio di importanza e mantieni solo memorie ad alta importanza. Usa TTL per auto-scadenza memorie vecchie. Periodicamente unisci memorie simili in riassunti. Separa namespace per ridurre l'ambito di ricerca.
Ricerca e Recupero
Q13Come dovrei usare /api/extract?
Flusso raccomandato: 1) Chiama con auto_store=false per anteprima memorie estratte. 2) Mostra risultati all'utente per conferma. 3) Archivia solo memorie approvate. 4) Una volta testata la qualita di estrazione, passa a auto_store=true per automazione.
Estrazione
Q14Qual e la differenza tra model=haiku e model=sonnet?
haiku: Piu veloce, piu economico, buono per la maggior parte dei casi. sonnet: Piu preciso, migliore per estrazioni importanti (onboarding, contratti, policy). Usa haiku per estrazione massiva/iniziale, sonnet per scenari ad alto rischio.
Estrazione
Q15Posso modificare una memoria dopo averla archiviata?
Si, ma il pattern raccomandato e: crea nuova memoria + elimina/archivia la vecchia. Questo approccio e migliore per tracce di audit e previene problemi di regressione.
Operazioni
Q16Come elimino le memorie?
Due approcci: 1) Elimina per ID (preciso), 2) Elimina per namespace (pulizia massiva). Per enterprise/conformita, assicura 'eliminazione completa + log di audit'. Documenta chiaramente la tua policy di eliminazione.
Operazioni
Q17Sto ricevendo 429 Too Many Requests. Cosa devo fare?
Hai raggiunto il limite di frequenza. Soluzioni: 1) Implementa backoff esponenziale (1s -> 2s -> 4s). 2) Metti in coda le richieste lato server. 3) Riduci frequenza richieste: cache query duplicate, operazioni batch, abbassa frequenza estrazione.
Operazioni
Q18Come riduco i costi?
Maggiori driver di costo: 1) Frequenza estrazione - riduci chiamate. 2) Ambito ricerca - usa namespace per restringere. 3) Scelta modello - usa haiku per routine, sonnet per importante. 4) Cache - cache query ripetute. 5) Operazioni batch quando possibile.
Operazioni
Q19Posso usare la chiave API nel browser (frontend)?
Non raccomandato - alto rischio di esposizione chiave. Chiama Seizn dal tuo server (Next.js Route Handler, Cloudflare Worker, funzione serverless) e fai che il browser chiami il tuo server. Non esporre mai chiavi API al codice lato client.
Sicurezza e Conformita
Q20Quale documentazione necessita il mio team sicurezza/legale?
Vorranno: 1) Ambito dati (cosa viene archiviato/non archiviato), 2) Crittografia (a riposo: AES-256, in transito: TLS), 3) Metodo isolamento tenant, 4) Policy eliminazione/conservazione, 5) Accesso log di audit, 6) Policy rotazione/scadenza chiavi. Mantieni una pagina Sicurezza e Governance nei tuoi docs.
Sicurezza e Conformita
Q21Cos'è il sistema di memoria Graph-RAG?
Seizn utilizza un'architettura Graph-RAG che combina embedding vettoriali con relazioni del grafo di conoscenza. Le memorie sono archiviate come nodi con archi tipizzati (relates_to, supports, contradicts, ecc.). Questo abilita: richiamo contestuale attraverso la traversata del grafo, rilevamento automatico di community per clustering tematico, e tracciamento temporale della conoscenza con periodi di validità.
Concetti Base
Q22Cos'è il sistema di livelli di memoria (Hot/Warm/Cold)?
Seizn organizza automaticamente le memorie in livelli basati sull'utilizzo: livello Hot (accesso frequente, mantenuto in cache veloce), livello Warm (accesso occasionale, recupero standard), livello Cold (raramente usato, archiviato ma ricercabile). Il gestore livelli promuove/degrada automaticamente le memorie basandosi sui pattern di accesso, ottimizzando sia performance che costi.
Concetti Base
Q23Come funziona la ricerca cross-linguale?
Seizn archivia sia il contenuto originale che una rappresentazione canonica in inglese per ogni memoria. Le query di ricerca vengono confrontate con entrambi gli embedding, abilitando scenari come cercare in inglese e trovare memorie in hindi. Usiamo modelli di embedding multilingue (BGE-M3, LaBSE) che supportano 100+ lingue con alto allineamento cross-linguale.
Ricerca e Recupero
Q24Quali lingue sono supportate per l'estrazione di memoria?
Seizn supporta 35+ lingue per estrazione e ricerca di memoria, incluse: inglese, cinese (semplificato/tradizionale), hindi, spagnolo, francese, tedesco, giapponese, coreano, russo, ucraino, arabo e tutte le principali lingue indiane (tamil, telugu, bengalese, ecc.). La lingua viene rilevata automaticamente con precisione 95%+.
Ricerca e Recupero
Q25Cos'è l'integrazione MCP e come la uso?
MCP (Model Context Protocol) permette ad assistenti IA come Claude Desktop di accedere direttamente alle memorie Seizn. Installa il nostro server MCP (npx @seizn/mcp-server), aggiungilo alla tua configurazione Claude Desktop, e l'assistente può automaticamente salvare e recuperare memorie durante le conversazioni. Questo abilita personalizzazione persistente tra sessioni.
Primi Passi
Q26Quale tecnologia alimenta il sistema di memoria di Seizn?
Seizn è costruito su: Next.js 16 con React Server Components, Supabase (PostgreSQL + pgvector per ricerca vettoriale), modello Voyage AI voyage-3 (embedding 1024 dimensioni), Claude per estrazione e analisi memoria. Usiamo indici HNSW per ricerca vettoriale sub-100ms, sottoscrizioni WebSocket in tempo reale, e Redis per caching.
Primi Passi
Q27Come integro Seizn nel mio workflow LLM?
Tre approcci principali: 1) REST API - chiamate HTTP dirette per controllo completo, 2) SDK (TypeScript/Python) - wrapper type-safe con logica di retry, 3) Server MCP - integrazione automatica con Claude Desktop e altri assistenti MCP-compatibili. Per produzione, raccomandiamo l'SDK con chiamate lato server per proteggere la tua chiave API.
Operazioni
Q28Cos'è la Context API e come la uso?
La Context API (GET /api/context) ritorna una stringa pre-formattata pronta da iniettare nel tuo prompt LLM. Combina: profilo utente, memorie recenti, fatti rilevanti e contesto grafo. Usa format=brief (~500 token), detailed (~1500 token), o extended (~3000 token) in base al tuo budget di contesto.
Operazioni

Hai ancora domande?

Consulta la nostra documentazione o contatta il nostro team di supporto.