15 Ottobre 2024 Red Teaming nella sicurezza dell’AI: le Linee Guida del Japan AI Safety Institute Il documento vuol promuovere l’adozione di tecniche per correggere le vulnerabilità nei sistemi