ARTICOLO
Oracle e Generative AI
10 gennaio 2025
Oracle Cloud Infrastructure & Generative AI
Nell’Ottobre del 2024, nel report annuale Magic Quadrant for Strategic Cloud Platform Services di Gartner, Oracle è stata classificata come uno dei 4 principali fornitori di servizi cloud insieme a Microsoft, Google e Amazon[1]. In aggiunta alla sua posizione di rilievo nel mercato dei servizi ERP e database, l’offerta di Oracle Cloud Infrastructure (OCI) è di fatto cresciuta rapidamente negli ultimi anni. Nel suo report Gartner ha anche osservato, però, le limitate potenzialità dei servizi di Generative AI all’interno di OCI, settore nel quale Oracle ha iniziato ad operare successivamente rispetto ai principali concorrenti cloud.
A conclusione del primo semestre del 2025, abbiamo voluto esaminare i progressi svolti da Oracle nel campo della Generative AI ed abbiamo analizzato lo stato attuale dei servizi offerti, condividendo anche alcune delle nostre esperienze pratiche.
Key Partnerships: Cohere & NVIDIA
Prima di descrivere i servizi di Generative AI disponibili presso Oracle, è importante menzionare due partnership significative che Oracle ha consolidato negli ultimi anni:
Cohere[2]:
Azienda specializzata nello sviluppo di modelli di Generative AI, Cohere impiega risorse Oracle per il training e il deployment dei propri Large Language Models (LLMs). All’interno di OCI, gli utenti possono utilizzare i LLMs avanzati di Cohere (come Command A, Command R e Command R+), oltre ai LLMs di Meta (Llama 3.1 e Llama 3.3). I LLMs di Cohere eccellono nell’esecuzione di RAG[3] (Retrieval Augmented Generation), una delle applicazioni più efficaci della Generative AI.
NVIDIA
Leader nel campo delle GPU, Oracle continua ad integrare strettamente risorse hardware NVIDIA all’interno della propria offerta su OCI.
Nel marzo 2025 la partnership si è ulteriormente rafforzata[4], rendendo più agevole l’utilizzo di tools e microservizi NVIDIA direttamente tramite console OCI.
Queste due collaborazioni rappresentano i pilastri dei servizi di Generative AI attualmente offerti all’interno di OCI.
Servizi di Generative AI in OCI: stato attuale e le nostre esperienze
All’interno di OCI, Oracle ha integrato due servizi specializzati nell’utilizzo dei LLMs: un servizio generico di Generative AI, che consente agli utenti di sfruttare i LLMs di Cohere e Meta tramite un’interfaccia grafica o programmaticamente via API, e un servizio di Generative AI Agents, che permette la creazione di un agente dedicato in grado di eseguire una pipeline RAG (Retrieval-Augmented Generation).
Il servizio di Generative AI in OCI si colloca in linea con gli altri provider cloud: le sue principali peculiarità includono la disponibilità dei modelli di Cohere e la possibilità di creare cluster dedicati per operazioni di fine tuning dei LLMs (per use case più avanzati). Confrontato con uno dei principali competitor (Azure OpenAI), è da segnalare l’impossibilità di fornire fonti dati addizionali a supporto della conversazione con gli utenti (e.g. tramite upload di file, OCI Storage o siti web).
La qualità dei modelli di Cohere e di Meta, invece, resta assolutamente valida.
Il servizio di Generative AI Agents è probabilmente il servizio più innovativo all’interno di OCI nel campo della Generative AI: ad oggi disponibile solo in alcune regioni[5], il servizio di Generative AI Agents consente agli utenti di OCI di definire e creare un agente in grado di rispondere alle richieste degli utenti basandosi su basi di dati (Knowledge Bases) specifiche.
Da un punto di vista più tecnico, si tratta di un servizio che consente la realizzazione di una pipeline RAG con un approccio low-code: un LLM viene configurato per interpretare le domande degli utenti e per rispondere alle loro richieste basandosi su fonti di dati preconfigurate (e.g. documenti caricati su Object Storage). Questo servizio può essere molto utile, ad esempio, per realizzare rapidamente dei chatbot in grado di utilizzare le capacità di un LLM nel contesto di fonti dati proprietarie.
Da un punto di vista più tecnico, si tratta di un servizio che consente la realizzazione di una pipeline RAG con un approccio low-code: un LLM viene configurato per interpretare le domande degli utenti e per rispondere alle loro richieste basandosi su fonti di dati preconfigurate (e.g. documenti caricati su Object Storage). Questo servizio può essere molto utile, ad esempio, per realizzare rapidamente dei chatbot in grado di utilizzare le capacità di un LLM nel contesto di fonti dati proprietarie.
All’interno della nostra azienda, abbiamo sperimentato con successo l’utilizzo del servizio di Generative AI Agents nel contesto di POCs e prototipi progettuali: la possibilità di caricare dei documenti su Object Storage (e.g. un documentale in PDF) e di configurare facilmente il servizio è stato utile per avere rapidamente un pipeline RAG funzionante, senza preoccuparsi delle componenti tecnologiche dietro le quinte tipiche di un processo RAG (LLM, database vettoriale, chunking, embedding, etc.).
Il servizio consente anche la configurazione di tool esterni accessibili dall’agente: oltre allo strumento di RAG tradizionale, OCI offre un tool per la conversione di query dell’utente in effettive query SQL (per supportare basi di dati in un database) e uno strumento di function calling con definizioni custom per permettere all’agente di invocare un qualsiasi tool esterno definito dall’utente (similmente a quanto offerto dai modelli di Open AI).
Da sottolineare anche la possibilità di attivare funzionalità di moderazione del contenuto, filtering di PII e protezioni da tentativi di prompt injection (input nocivi con l’intento di cambiare il comportamento del LLM).
Gli unici difetti da sottolineare sono l’impossibilità di operare su configurazioni di livello più basso (e.g. modello LLM usato o tecniche di chunking dei dati) e alcune limitazioni infrastrutturali del servizio (disponibilità solo in alcune region e numero di agenti limitato per singolo tenant).
I due servizi di Generative AI all’interno di OCI sono quindi ottime alternative ai servizi equivalenti in altri provider cloud, specialmente qualora si voglia restare all’interno dell’ecosistema Oracle.
Integrazione delle Generative AI in Oracle Fusion
Una mossa particolarmente strategica da parte di Oracle è stata l’inclusione di features basate sulla Generative AI anche all’interno del mondo dell’ERP. Il servizio Oracle AI for Fusion Applications[6] integra all’interno di diversi moduli di Oracle Fusion (ERP, HCM, SCM, Sales, Service e Marketing) alcune funzionalità basate sulla Generative AI. Sfruttando le risorse di OCI, in aggiunta ai servizi AI già esistenti e basati su modelli predittivi tradizionali, Oracle ha integrato funzionalità che sfruttano la Generative AI sia come tecnologia standalone sia come motore di agenti AI specializzati.
Tasks tipiche in cui la Generative AI è in grado di aiutare gli utenti coinvolgono l’interpretazione e la generazione di testo (e.g. la generazione di un riassunto di un purchase order, la creazione di una performance review, la generazione di item descriptions, etc.). Similmente, servizi integrati in Oracle Fusion basati su Generative AI Agents possono svolgere tasks più elaborate ed interagire con gli utenti (e.g. assistenti per l’onboarding di neoassunti, advisor di Operational Procedures, agent per Campaign Planning, etc.)
Un esempio di servizi AI in Oracle Fusion ERP, qui il dettaglio completo
Inoltre, il servizio di AI Agent Studio[7] consente la customizzazione e/o creazione di Generative AI Agents da integrare nelle applicazioni di
Oracle Fusion, usando le stesse tecnologie disponibili in OCI (e.g. nel servizio di Generative AI Agents).
Conclusione
In sintesi, i servizi di Generative AI offerti da Oracle non solo competono con le soluzioni di altri provider cloud, ma offrono anche vantaggi distintivi all’interno dell’ecosistema Oracle. L’integrazione di queste soluzioni all’interno di OCI e delle applicazioni Oracle Fusion rappresenta una mossa strategica che permette agli utenti di sfruttare le potenzialità dei LLMs per migliorare l’efficienza operativa e l’esperienza utente.
References
[1] https://www.oracle.com/cloud/gartner-mq-strategic-cloud-platform-services-leader/
[2] https://www.oracle.com/customers/cohere/
[3] https://docs.cohere.com/v2/docs/models
[5] https://docs.oracle.com/en-us/iaas/Content/generative-ai-agents/overview.htm#regions
[6] https://www.oracle.com/applications/fusion-ai/
[7] https://www.oracle.com/a/ocom/docs/applications/fusion-apps-ai-agent-studio-solution-brochure.pdf
Seguici sui nostri profili social