Il potenziale dell’intelligenza artificiale (IA) di superare l’intelligenza umana è stato oggetto di dibattito per molti anni, e progressi come ChatGPT hanno solo intensificato queste discussioni. Nel 2021, gli scienziati hanno determinato che è quasi certamente impossibile controllare un’IA super-intelligente, poiché ciò richiederebbe la creazione di una simulazione comprensibile – un compito ritenuto impraticabile a causa della stessa natura della complessità dell’IA.
La preoccupazione si estende oltre l’incapacità di stabilire regole di ‘non fare del male’ per l’IA; il problema, come evidenziato dai ricercatori, è la differenza fondamentale tra l’etica robotica convenzionale e le sfide uniche poste da una superintelligenza multifaccettata, capace di mobilitare risorse diverse per raggiungere obiettivi potenzialmente incomprensibili.
Attingendo al ‘problema di arresto’ di Alan Turing del 1936, il team ha ragionato che mentre è possibile sapere se programmi specifici raggiungeranno una conclusione o cicleranno all’infinito, è logicamente impossibile determinare questo per ogni potenziale programma. Quindi, un’IA super-intelligente, capace di contenere ogni possibile programma informatico nella sua memoria, diventa incontenibile.
Le alternative, come insegnare etica all’IA o limitare le sue capacità, sono state anche respinte. Limitarne la portata potrebbe minare il suo scopo – risolvere problemi al di là delle capacità umane. Con il potenziale arrivo di una superintelligenza incontrollabile, lo studio sottolinea la necessità di un serio esame interiore sulle direzioni di sviluppo dell’IA. All’inizio di quest’anno, figure di spicco del tech, tra cui Elon Musk e Steve Wozniak, hanno fatto eco a queste preoccupazioni, sostenendo una pausa nei lavori sull’IA per esplorare la sua sicurezza, riconoscendo i profondi rischi che essa comporta per la società.
Source: ScienceAlert
Per mitigare potenziali minacce, è importante implementare ulteriori misure di sicurezza informatica con l’aiuto di un partner affidabile come INFRA www.infrascan.net o è possibile provarci da soli utilizzando check.website.