Aprile 26, 2024

Lamezia in strada

Trova tutti gli ultimi articoli e guarda programmi TV, servizi e podcast relativi all'Italia

L’intelligenza artificiale può aiutare gli esseri umani a fidarsi di più l’uno dell’altro?

L’intelligenza artificiale può aiutare gli esseri umani a fidarsi di più l’uno dell’altro?

Opinione di Bloomberg – Gli Stati Uniti stanno attraversando una crisi di fiducia sociale, sia nel governo, nei media, nella Federal Reserve, o semplicemente nelle persone che hanno opinioni politiche opposte. Anche gli Stati Uniti stanno vivendo una rivoluzione dell’intelligenza artificiale, che sta trasformando tutto, dal modello di business di Google all’infanzia.

Questi due eventi mi hanno fatto pensare: la rivoluzione dell’IA potrebbe essere in qualche modo sfruttata per provocare una rinascita della fiducia sociale, piuttosto che un suo ulteriore collasso?

Ammetto che questo è molto da chiedere. La più recente tecnologia per controllare Internet, i social media, è stata spesso associata a un aumento della disinformazione e quindi a una diminuzione della fiducia sociale. Gran parte del recente discorso sull’intelligenza artificiale indica proprio questi rischi. I Large Language Models (LLM) possono essere utilizzati per creare grandi quantità di pubblicità, eventualmente inondando Internet.

Questo è un rischio reale, ma non sembra molto diverso dallo status quo. Tiranni e attori malintenzionati stanno già assumendo esseri umani per inondare Internet di contenuti dannosi.

Le notizie più ottimistiche hanno meno a che fare con i contenuti che con la scelta. I principali LLM di oggi, come quelli di Anthropic e OpenAI, si allenano sui dati di Internet, ma se fai loro domande sulla Russia o sulla Cina, danno risposte relativamente obiettive. Gli utenti possono anche rendere le risposte più concrete o accademiche chiedendo.

Non che LLM non venga utilizzato per creare rumore – lo faranno – ma piuttosto offre agli utenti un’altra opzione per filtrarlo. Con gli LLM, gli utenti possono ottenere tutta l’obiettività che desiderano, almeno dopo aver appreso come funzionano.

READ  Il tasso di disoccupazione nel Regno Unito è aumentato al 3,7% da settembre a novembre

È ancora una previsione sicura: tra un anno o due, ci sarà una varietà di LLM là fuori, alcuni dei quali open source, che le persone saranno in grado di utilizzare per creare il tipo di risposte che desiderano. Potresti chiederti perché questo è un miglioramento rispetto allo status quo, che ora consente agli spettatori di scegliere tra punti vendita polarizzanti come Fox News o MSNBC, per non parlare di voci di ogni tipo su Twitter.

Ho qualche speranza di miglioramento in parte perché gli LLM lavorano su base pull, il che significa che chiedi loro quello che vuoi. Anche se stai lavorando con un LLM “giusto”, puoi sempre chiedere una prospettiva sinistra o centrale e viceversa. Sarebbe come guardare Fox e avere un pulsante sul telecomando che puoi premere per ottenere un punto di vista opposto o contrastante, in pochi secondi. È un enorme miglioramento rispetto alla TV via cavo, se non altro in termini di velocità. Il LLM rende anche molto facile creare una discussione o una risposta di “confronto e contrasto” su quasi tutti gli argomenti.

Ancora una volta, non si sa quanto equilibrio vogliano le persone. Ma l’intelligenza artificiale renderà almeno più facile il bilanciamento, se lo desiderano. Sembra meglio che avere un canale TV via cavo specifico o un feed Twitter preimpostato come linea di base predefinita.

La natura impersonale di molti LLM può anche essere una forza per l’equilibrio ideologico. In questo momento, molti mancini non vogliono rivolgersi a Fox (o visitare il loro vicino) per ascoltare un diverso punto di vista perché trovano i personaggi offensivi o ripugnanti. I LLM offrono la possibilità di presentare punti di vista nelle loro forme più secche, meno provocatorie e più analiticamente controverse.

READ  Chi vincerà la guerra all’intelligenza artificiale generativa?

LLM può anche aumentare la fiducia rendendo la traduzione tra le lingue quasi perfetta. Alcune persone anti-immigrazione potrebbero fidarsi di più degli immigrati latini se potessero conoscere notizie e media in lingua spagnola e comprendere meglio i problemi reali che questi immigrati devono affrontare nei loro paesi di origine? Chiamami ingenuo, ma vedo più aspetti positivi che negativi. Le persone più esposte a culture diverse tendono ad essere più tolleranti e più fiduciose.

Un LLM può anche aumentare la fiducia al di fuori della politica. Le visite mediche, ad esempio, possono essere più gratificanti e produttive se il tuo LLM ti aiuta a preparare buone domande sui tuoi problemi di salute. Tu e il tuo medico potete costruire un rapporto migliore e più fiducioso.

La crisi della fiducia sociale in America ha cause complesse, non tutte note, e l’IA non è affatto una panacea. Ma almeno, l’intelligenza artificiale ha il potenziale per rimuovere i pregiudizi esistenti contro l’equilibrio e rendere più accessibile una gamma più ampia di punti di vista.

Naturalmente, noi umani dobbiamo ancora decidere quanto vogliamo davvero fidarci l’uno dell’altro. Se non ci riusciremo, nessuna intelligenza artificiale, per quanto intelligente sia, potrà aiutarci.

Questa nota non riflette necessariamente l’opinione del comitato editoriale o di Bloomberg LP e dei suoi proprietari.