top of page

TECHFLASH

"L’intelligenza artificiale supererà quella umana entro il 2027"

automazione_industria40_robotica_shutterstock_1119927341-2048x892.jpg.webp

 

​

 – 12 aprile 2025

Contesto e Obiettivo dell’articolo

L’articolo esplora una previsione fatta da un gruppo di ex ricercatori di OpenAI, guidati da Daniel Kokotajlo, secondo cui l’intelligenza artificiale (IA) supererà quella umana entro il 2027. Ma il tema centrale non è solo la rapidità dello sviluppo tecnologico, bensì il dilemma della responsabilità legato all’uso sempre più autonomo delle macchine.

Punto Chiave 1 – Macchine intelligenti e autonome entro il 2027

I ricercatori hanno creato un esperimento mentale, immaginando una mega-azienda fittizia chiamata OpenBrain, che rappresenta la somma dei principali laboratori A

  • Secondo la simulazione:

    • All’inizio del 2027, l’AI diventa un programmatore completo.

    • Entro metà anno, evolve in un ricercatore autonomo capace di fare scoperte.

    • Tra fine 2027 e inizio 2028, nasce una superintelligenza artificiale, capace di auto-migliorarsi e superare le capacità umane in vari ambiti.

Questa super-AI potrebbe diventare incontrollabile, generando versioni sempre più avanzate di sé stessa.

Punto Chiave 2 – Il dilemma della responsabilità

  • Silvia Milano, esperta in etica dell’AI, evidenzia il problema del “gap di responsabilità”: più l’AI è autonoma, meno è chiaro chi sia responsabile delle sue azioni.

  • Esempio: se un’AI invia una mail in autonomia, chi ne risponde? Il sistema? Il creatore? Nessuno?

Il problema diventa critico nei settori delicati:

  • Giustizia: algoritmi usati per sentenze e misure cautelari.

  • Sanità: priorità nei trattamenti.

  • Lavoro: selezione dei candidati.

In tutti questi casi, c'è il rischio che nessuno sia chiaramente responsabile delle decisioni prese.

Punto Chiave 3 – Intelligenza sì, coscienza no (per ora)

  • Gaia Contu, dottoranda in etica della robotica, sottolinea che le AI non hanno coscienza: non possiedono una esperienza soggettiva come l’essere umano.

  • Tuttavia, nulla vieta che in futuro possano svilupparla.

  • Esempio: un gioco mentale con ChatGPT che non riesce a visualizzare una barchetta costruita ruotando la lettera “D” e aggiungendo il numero 4 — dimostra il limite delle attuali AI nella percezione visuale umana.

Conclusione

L’articolo sottolinea che:

  • L’evoluzione dell’AI è inevitabile e rapidissima, ma...

  • Serve una chiara definizione di responsabilità nell’utilizzo di tecnologie autonome.

  • I modelli linguistici non hanno nozione di verità: si basano su probabilità, non su comprensione.

  • Delegare all’AI senza supervisione è pericoloso, ma forse lo stiamo già facendo.

 

bottom of page