Il Context Engineering (CE) è una disciplina sistematica emersa nel campo dell’intelligenza artificiale generativa che si occupa di progettare l’intero ecosistema informativo in cui operano i Modelli Linguistici di Grandi Dimensioni (LLM).
Rappresenta un cambiamento fondamentale rispetto al Prompt Engineering (PE), spostando l’attenzione dal perfezionamento di una singola istruzione (il prompt) alla costruzione di un ambiente informativo robusto, scalabile e persistente.
L’obiettivo primario del Context Engineering non è più dire al modello cosa dire, ma garantire cosa il modello sa quando genera una risposta.
Come cambiano le responsabilità nel passaggio dal Prompt Engineering al Context Engineering?
L’intervento di Stefano Somenzi, CTO di Athics, al Master in Intelligenza Artificiale ed Etica presso la Pontificia Università Antonianum di Roma si è concentrato sulla trasformazione della responsabilità etica nell’ecosistema dei Large Language Models (LLM), segnando il passaggio cruciale dall’attenzione sul singolo input (Prompt Engineering – PE) alla progettazione del sistema a lungo termine (Context Engineering – CE).
La tesi centrale dell’intervento è che questa transizione sposta il focus della responsabilità etica dall’Utente al Designer del Sistema, pur vincolato dal Fornitore del Modello Fondamentale.
Il Triangolo di Responsabilità: Chi Fa Cosa?
L’intervento ha strutturato il dibattito etico attorno al “Triangolo di Responsabilità”, identificando tre attori chiave con doveri distinti:
| Attore | Descrizione | Dovere Principale | Focus etico nel modello |
| Fornitore del Modello | Creatori del modello base (es. OpenAI, Google, Meta). | Trasparenza | Riguarda l’allineamento iniziale e il DNA etico del modello. |
| Designer del Sistema | Società che integrano l’LLM in una soluzione specifica (es. chatbot aziendale). | Diligenza | Riguarda il comportamento persistente e strutturale del sistema. |
| Utente Finale | Utilizzatore dell’applicazione AI. | Consapevolezza. | Focalizzata sull’input immediato e sul feedback. |
Prompt Engineering vs Context Engineering
L’intervento ha chiarito la differenza tra i due approcci di gestione dell’IA:
Prompt Engineering (PE): È l’interazione momentanea e transitoria. La responsabilità (immediata) ricade principalmente sull’Utente. Il Provider e il Designer intervengono solo con filtri difensivi.
Context Engineering (CE): È l’architettura persistente del comportamento. La responsabilità è strutturale e ricade pesantemente sul Designer. Il CE gestisce l’integrità dei dati RAG (Retrieval-Augmented Generation) e impone una non-neutralità etica e intellettuale.
| Criterio di Confronto | Prompt Engineering (PE) | Context Engineering (CE) |
| Focus Temporale | Immediato e transitorio | Persistente e a lungo termine |
| Complessità Etica | Media/Bassa (problema più superficiale) | Alta (problema profondo, es. bias strutturale) |
| Responsabilità Principale | Utente (Input) | Designer (Architettura) |
Approfondimenti etici e filosofici

Al di là degli aspetti tecnici, l’intervento ha saputo arricchire la discussione con spunti filosofici, rendendo l’etica dell’IA più accessibile. Richiamando il pensiero di Seneca, si è sottolineato come l’intelligenza artificiale sia, di per sé, uno strumento “neutro”. Ciò significa che il vero cuore della questione etica non risiede tanto nella tecnologia in sé, quanto piuttosto nell’intenzione umana che la guida e la progetta. Il compito etico più importante, quindi, non è rendere “perfetto” lo strumento, ma assicurarsi che chi lo crea agisca con diligenza e responsabilità. Questo si traduce nella necessità di un Context Engineering ben fatto, capace di guidare l’IA a fornire risposte non solo corrette, ma anche eticamente fondate, contrastando le informazioni superficiali di Internet e promuovendo la trasparenza sulle sue finalità, pur mantenendo riservati i dettagli tecnici per motivi di sicurezza.
Conclusioni sul Context Engineering
L’intervento ha concluso che il Context Engineering rappresenta la mossa strategica per i Designer per applicare attivamente la buona volontà progettuale, fornendo agli Utenti maggiori opzioni informative e libertà cognitiva contro la “Tirannia della Massa Digitale”.