I ricercatori dell’ASU uniscono sicurezza e intelligenza artificiale
CasaCasa > Notizia > I ricercatori dell’ASU uniscono sicurezza e intelligenza artificiale

I ricercatori dell’ASU uniscono sicurezza e intelligenza artificiale

Jul 29, 2023

di Annelise Krafft | 1 agosto 2023 | Caratteristiche, Scuole Fulton

I rapidi progressi nel campo dell’intelligenza artificiale, o AI, stanno dimostrando che la tecnologia è una risorsa indispensabile. Nel campo della sicurezza nazionale, gli esperti stanno tracciando un percorso per l’impatto dell’intelligenza artificiale sulla nostra strategia di difesa collettiva.

Paulo Shakarian è in prima linea in questo lavoro critico utilizzando la sua esperienza nell’intelligenza artificiale simbolica e nei sistemi neuro-simbolici, che sono forme avanzate di tecnologia IA, per soddisfare le sofisticate esigenze delle organizzazioni di sicurezza nazionale.

Shakarian, professore associato di informatica presso la School of Computing and Augmented Intelligence, parte delle Ira A. Fulton Schools of Engineering presso l'Arizona State University, è stato invitato a partecipare a AI Forward, una serie di workshop ospitati dalla US Defense Advanced Agenzia per i progetti di ricerca o DARPA.

L'evento comprende due workshop: un incontro virtuale che ha avuto luogo all'inizio di quest'estate e un evento di persona a Boston dal 31 luglio al 2 agosto.

Shakarian è tra i 100 partecipanti che lavorano per portare avanti l'iniziativa della DARPA volta a esplorare nuove direzioni per la ricerca sull'intelligenza artificiale che incidono su un'ampia gamma di compiti legati alla difesa, inclusi sistemi autonomi, piattaforme di intelligence, pianificazione militare, analisi di big data e visione artificiale.

Al workshop di Boston, Shakarian sarà affiancato da Nakul Gopalan, un assistente professore di informatica, che è stato anche selezionato per partecipare all'evento per esplorare come la sua ricerca sulla comunicazione uomo-robot potrebbe aiutare a raggiungere gli obiettivi della DARPA.

Oltre al suo coinvolgimento in AI Forward, Shakarian si sta preparando a pubblicare un nuovo libro nel settembre 2023. Il libro, intitolato “Ragionamento e apprendimento neuro-simbolico”, esplorerà gli ultimi cinque anni di ricerca sull’IA neuro-simbolica e aiuterà i lettori comprendere i recenti progressi nel campo.

Mentre Shakarian e Gopalan si preparavano per i workshop, si sono presi un momento per condividere le loro competenze di ricerca e i loro pensieri sull'attuale panorama dell'intelligenza artificiale.

Spiega le tue aree di ricerca. Su quali argomenti ti concentri?

Paolo Shakarian: Il mio obiettivo principale è l'intelligenza artificiale simbolica e i sistemi neuro-simbolici. Per capirli, è importante parlare di come appare oggi l’intelligenza artificiale, principalmente come reti neurali di deep learning, che hanno rappresentato una meravigliosa rivoluzione tecnologica nell’ultimo decennio. Considerando i problemi specificamente rilevanti per il Dipartimento della Difesa degli Stati Uniti, o DoD, queste tecnologie di intelligenza artificiale non funzionavano bene. Esistono diverse sfide, tra cui i modelli a scatola nera e la loro spiegabilità, i sistemi che non sono intrinsecamente modulari perché addestrati end-to-end e l’applicazione di vincoli per evitare collisioni e interferenze quando più velivoli condividono lo stesso spazio aereo. Con le reti neurali, non esiste un modo intrinseco nel sistema per imporre vincoli. L’intelligenza artificiale simbolica esiste da più tempo delle reti neurali, ma non è guidata dai dati, mentre le reti neurali lo sono e possono apprendere simboli e ripeterli. Tradizionalmente, le capacità dell'IA simbolica non sono state dimostrate neanche lontanamente vicine alla capacità di apprendimento di una rete neurale, ma tutti i problemi che ho menzionato sono carenze dell'apprendimento profondo che l'IA simbolica può affrontare. Quando si inizia ad affrontare questi casi d’uso che hanno requisiti di sicurezza significativi, come nel settore della difesa, dell’aerospaziale e della guida autonoma, c’è il desiderio di sfruttare molti dati tenendo conto dei vincoli di sicurezza, della modularità e della spiegabilità. Lo studio dell’IA neuro-simbolica utilizza molti dati tenendo presenti questi altri parametri.

Nakuul Gopalan: Mi concentro sull'area della formazione linguistica, della pianificazione e dell'apprendimento da parte di utenti umani per applicazioni robotiche. Cerco di utilizzare le dimostrazioni fornite dagli esseri umani per insegnare idee simboliche ai sistemi di intelligenza artificiale, come colori, forme, oggetti e verbi, e quindi mappare il linguaggio su questi concetti simbolici. A questo proposito, sviluppo anche approcci neuro-simbolici per insegnare i sistemi di intelligenza artificiale. Inoltre, lavoro nel campo dell'apprendimento dei robot, che prevede l'implementazione di politiche di apprendimento per aiutare i robot a scoprire come risolvere compiti specifici. Le attività possono variare dall'inserimento e fissaggio di bulloni nelle ali degli aerei alla comprensione di come modellare un oggetto come un forno a microonde in modo che un robot possa riscaldare il cibo. Lo sviluppo di strumenti in queste ampie aree problematiche dell’apprendimento automatico e dell’intelligenza artificiale può consentire ai robot di risolvere problemi con utenti umani.