martedì, Dicembre 3, 2024

Deve leggere

Articoli correlati

L’intelligenza artificiale di OpenAI era molto aperta, quindi in GPT-4 prevale il segreto assoluto

Era tutto molto interessante e aperto quando alcuni anni fa sono iniziati i progressi nello sviluppo di sistemi di intelligenza artificiale pratici. Non solo aziende come OpenAI hanno rilasciato motori straordinari come DALL-E 2 o GPT-3, ma hanno pubblicato studi approfonditi che descrivono in dettaglio come sono stati creati. È finita.

GPT-4. Questa settimana, OpenAI ha annunciato la nuova versione del suo modello di intelligenza artificiale conversazionale, GPT-4, e sebbene sia presente Annuncio ufficiale Ha dimostrato i suoi meriti e le sue capacità e non sono stati forniti dettagli interni del suo sviluppo. Non si sa su quanti dati è stato addestrato il sistema, il costo dell’energia o quale hardware e metodi sono stati utilizzati per generarlo.


OpenAI non è altro che “aperto”. Ben Schmidt, un ingegnere presso una società di mappatura AI chiamata Nomic, ha sottolineato un dettaglio importante in merito Relazione tecnica 98 pagine Informazioni su GPT-4: i funzionari hanno annunciato che non riveleranno nulla su come hanno addestrato il modello.

la ragione? una gara. Nella seconda pagina di quel rapporto parlano della portata e dei limiti di quel rapporto, avvertendo che sebbene forniranno dati sulle loro capacità, non riveleranno i dettagli interni dello sviluppo per non rendere più facile per altri concorrenti incontro. il loro sviluppo:

Dato il panorama competitivo e le implicazioni sulla sicurezza dei modelli su larga scala come GPT-4, questo rapporto non contiene ulteriori dettagli sull’architettura (comprese le dimensioni del modello), l’hardware, il calcolo dell’addestramento, la generazione di set di dati, il metodo di addestramento o altri dati simili o costruire il set di dati, il metodo di addestramento o simili.

READ  Amazon sta ricevendo critiche per aver offerto agli influencer solo $ 25 per video

Le aziende sono serie. ha spiegato Ilya Sutskiver, co-fondatore di OpenAI Quasi “C’è molta concorrenza là fuori. […] Molte aziende vogliono fare lo stesso, quindi da un punto di vista competitivo, puoi vederlo come maturità sul campo. “Dalla condivisione della conoscenza come negli anni passati, le aziende sono passate a un approccio più protezionistico al loro avanzamento.

Ma c’è un rischio. Il problema di questa nuova posizione segreta è la sicurezza di questi moduli, che senza questa trasparenza perdono la possibilità di essere esaminati da altri esperti o organizzazioni indipendenti. Per Sutskever, l’approccio era esattamente l’opposto: questi modelli potrebbero finire per fare “molti danni” e, man mano che le capacità migliorano, “ha senso che tu non voglia nemmeno rivelare [cómo funcionan por dentro]Quindi i cattivi attori non possono trarne vantaggio.

Abbiamo sbagliato. La posizione di OpenAI su questo è completamente cambiata e in passato hanno condiviso ampie informazioni sui loro modelli. Secondo Sutskever “ci sbagliavamo”. Per lui, se l’intelligenza artificiale finisce per essere potente, “non ha senso il codice open source. È una cattiva idea… Spero che tra qualche anno sia chiarissimo a tutti che l’intelligenza artificiale open source non è una buona idea. “

Opinioni per tutti i gusti. Mentre OpenAI si sta avvicinando a GPT-4, Meta ce l’ha Lancia FIAMMA, che è fondamentalmente un emulatore aperto che possiamo già installare sul nostro laptop. L’approccio è attualmente quello adottato originariamente da OpenAI, ma per altri la decisione dei creatori di GPT-4 ha senso dal punto di vista aziendale. Questo è riconosciuto da William Falcon, creatore dello strumento PyTorch Lightning, che ha spiegato in VentureBeat come “se qualcosa va storto con questo modello, e sta per andare storto, l’hai già visto con allucinazioni e ti sta dando false informazioni, come dovrebbe reagire la comunità?”

READ  Disaster Story: mentre Crypto va in crash, i gemelli Winklevoss cantano "Don't Stop Believing"

Poi c’è il diritto d’autore. C’è anche un lato legale in tutto questo: i set di dati o “data pool” con cui questi modelli vengono addestrati sono enormi e molte di queste informazioni vengono raccolte dal web. È probabile che alcuni di questi contenuti siano protetti da copyright, quindi non dire come sono stati addestrati li protegge (inizialmente) da potenziali rivendicazioni di copyright.

A Xataka | Non ho idea della programmazione ma grazie a GPT-4 ho creato una copia esatta di Flappy Bird