Seleziona una pagina



Un tool innovativo per correggere le ‘allucinazioni’, per individuare e gestire i contenuti inappropriati o potenzialmente pericolosi generati dall’intelligenza artificiale in applicazioni e servizi è stato lanciato da Microsoft: si tratta di Azure AI Content Safety.

Questo strumento offre agli sviluppatori delle Api che permettono di individuare materiale indesiderato sia nel testo che nelle immagini. Tra queste spicca l’Api di rilevamento della fondatezza, che aiuta a determinare se le risposte dei modelli linguistici sono basate su materiali selezionati dall’utente, rivelando eventuali ‘allucinazioni’.

La novità principale è l’anteprima di una funzionalità che consente di correggere in tempo reale le allucinazioni nei risultati dell’intelligenza artificiale. Quando viene individuata una frase errata, il sistema invia una richiesta di correzione al modello generativo dell’IA che valuta e, se necessario, riscrive la frase.

In questo modo, Microsoft si pone all’avanguardia nel campo della sicurezza dei contenuti generati dall’intelligenza artificiale, offrendo agli sviluppatori strumenti per garantire una maggiore precisione e affidabilità.