Maggio 9, 2024

Lamezia in strada

Trova tutti gli ultimi articoli e guarda programmi TV, servizi e podcast relativi all'Italia

Le reti verranno avvisate dei contenuti generati dall'intelligenza artificiale

Le reti verranno avvisate dei contenuti generati dall'intelligenza artificiale

Obiettivo Ha annunciato che “nei prossimi mesi” identificherà e classificherà automaticamente Immagini realistiche Pubblicato in Facebook, Instagram E temi creati utilizzando Intelligenza Artificiale Generativa (AI) Utilizzando strumenti di altre aziende.


I social network ospitano sempre più contenuti generati dall’intelligenza artificiale generativa con un aspetto realisticoCiò rende difficile distinguere tra post di contenuti umani e contenuti artificiali. In questo contesto, l'azienda ha guidato Marco Zuckerberg Ha condiviso la sua intenzione di continuare ad aiutare gli utenti a sapere quando sono stati creati contenuti realistici utilizzando l'intelligenza artificiale.

Tag dei contenuti generati dall'intelligenza artificiale

Meta condivisa Il suo entusiasmo per “l’esplosione della creatività” Visualizzato dagli utenti che utilizzano nuovi strumenti di intelligenza artificiale generativa, come il generatore di immagini di meta al “chatbot”, Attraverso di esso, le immagini possono essere create in modo semplice Istruzioni di testo. Tuttavia, come spiegato nel comunicato, anche gli utenti “Apprezzano la trasparenza.” Riguardo a questa nuova tecnologia, quindi, hanno implementato “Creato utilizzando l'intelligenza artificiale” Nelle immagini fotorealistiche create con lo strumento Meta Al.

Ora, Meta ha indicato che il contenuto fotorealistico è stato creato utilizzando l'intelligenza artificiale generativa utilizzando strumenti di altre società e pubblicato su Instagram, Facebook e argomenti, Inoltre integreranno automaticamente queste etichette, informando gli utenti del tipo di contenuto e Evitare la confusione.


Verrà implementato nei prossimi mesi

Per definire e denominare questo tipo di contenuti, l'azienda ha indicato che sta lavorando con partner del settore per “coordinare le tecnologie comuni”, che si riferisce a Quando il contenuto viene creato utilizzando l'intelligenza artificialeIndipendentemente dallo strumento o dal software con cui è stato creato. Pertanto, Meta ha comunicato che queste classificazioni inizieranno ad essere implementate “Nei prossimi mesi” In tutte le lingue supportate da ciascun social network. Allo stesso modo, la società guidata da Zuckerberg ha indicato che lo farà Approccio di trasparenza Nel corso di quest'anno, con l'obiettivo diSaperne di più Su come le persone creano e condividono contenuti AI.” “Questo informerà Migliori pratiche del settore E il nostro approccio al futuro, ha aggiunto il responsabile di Meta Global Affairs. Nick Clegg.

READ  Elon Musk potrebbe rendere la vita difficile al nuovo CEO di Twitter[ANALISI]

Standard comuni di identificazione

All'interno del tuo strumento Obiettivo Alha la società tecnologica Stili diversi Per indicare che si tratta di contenuti generati dall'intelligenza artificiale. accanto a Segni Visibile e EtichettePresentato morto Filigrane Invisibile, come Metadati incorporati All'interno dei rispettivi file immagine. E così viene offerto di più durezza Quando si selezionano contenuti generati dall'intelligenza artificiale, sia per Meta che per altre società.

Allo stesso modo suggerisce meta Concordare su questo tipo di misura Per tutti i contenuti generati dall'intelligenza artificiale visualizzati su Internet. In questo senso, l'azienda ha spiegato che sta collaborando con aziende del settore per svilupparne alcuni Standard comuni che consentono di specificare i contenuti Attraverso forum come il Partenariato per l’Intelligenza Artificiale (PAI). Come specificato, i tag di metadati non visivi utilizzati nelle immagini Meta Al sono “conformi” alle pratiche PAI.

Seguendo questa linea nasce anche Meta Strumenti in grado di identificare marcatori invisibili “su scala”, In grado di riconoscere le informazioni generate dall'intelligenza artificiale dagli standard tecnici C2PA e IPTC, per poter etichettare le immagini Google, OpenAI, Microsoft, Adobe, Midjourney e ShutterstockQueste aziende aggiungono metadati alle immagini create dai corrispondenti strumenti di intelligenza artificiale.


Verranno selezionati anche clip audio e video

Oltre a tutto ciò, l'azienda americana ha anche indicato che, nonostante le varie piattaforme abbiano cominciato ad aggiungere segnali nei programmi di generazione di immagini, Non hanno ancora iniziato Da includere negli strumenti AI che crei Audio e video “Sulla stessa scala.” Per questo motivo Meta ha spiegato che non è ancora in grado di rilevare segnali in questo tipo di contenuti provenienti da altre società e, quindi, Non puoi dargli un nome.

READ  Gli economisti aumentano le probabilità di una recessione in Europa e negli Stati Uniti

In questo contesto, mentre le aziende iniziano… Incorpora questi segnali nei video e nelle registrazioni audio generati dall'intelligenza artificialeMeta ha indicato che fornirà agli utenti a lavoro Di qualsiasi Racconta Quando questo tipo di contenuto viene condiviso sui loro social network, non è quella la piattaforma È possibile aggiungere l'etichetta.

Allo stesso modo, se gli utenti pubblicano contenuti utilizzando Video realistico o audio realisticocreati o modificati digitalmente e non segnalarli, Meta potrebbe presentare domanda Sanzioni. Infatti, nel caso in cui quel contenuto sia considerato meta “Crea un rischio particolarmente elevato di inganno su una questione importante.”Puoi aggiungere un'etichetta “più chiara” per fornire informazioni più precise.

Nuove formule per il rilevamento dell'intelligenza artificiale

Nonostante tutto ciò, Meta ha sottolineato che queste misure rappresentano “Cosa è tecnicamente possibile adesso”, Con l’avvertenza che allo stato attuale “Non è possibile identificare tutti i contenuti generati dall’intelligenza artificiale”. Inoltre, ci sono modi per rimuovere i segni invisibili.

In questo contesto, e guardando al futuro, l’azienda lo ha indicato Continuano a funzionare Sviluppare Cartelle di lavoro Ciò aiuta a rilevare i contenuti generati dall’intelligenza artificiale “anche se mancano tag invisibili”. Allo stesso modo, anche loro ci stanno lavorando Cerca modi per rendere difficile la rimozione o la modifica delle filigrane Invisibile nei contenuti generati dall'intelligenza artificiale.

Esempi di progressi compiuti nel raggiungimento di questi obiettivi includono: A Ricerca recente Condotto da Meta AI Research Lab, giustiziache mostra a Tecnologia della filigrana invisibile che chiamano “firma stabile. Questo metodo integra il meccanismo di watermarking direttamente nel processo di creazione dell'immagine, rendendolo La filigrana non può essere disabilitata.

READ  Il colombiano Grupo Argos non parteciperà all'OPA di Nutresa e metterà in vendita gli asset su W. Street

Spazio sempre più negativo

“È probabile che diventi un problema crescente nei prossimi anni negativo. Le persone e le organizzazioni che desiderano truffare attivamente le persone utilizzando contenuti generati dall'intelligenza artificiale cercheranno modi per farlo Elusione delle garanzie che dovevano essere rilevati. Pertanto, dovremo farlo “Continua a cercare modi per rimanere un passo avanti.”Ed è stato rivelato Clegg.

Per evitare la condivisione Contenuti fuorvianti Generato dall'intelligenza artificiale, Meta consiglia inoltre agli utenti di considerare questioni come la verifica dell'affidabilità dei contenuti di condivisione dell'account o la ricerca di dettagli che potrebbero sembrare innaturali.

L'intelligenza artificiale come scudo

Con tutto ciò, Meta ha confermato di utilizzare anche l'intelligenza artificiale nella propria attività Sistemi di integrità Come un modo importante per rilevare questo tipo di contenuto. In questo senso, ha osservato, lo è anche l’intelligenza artificiale Protezione contro i contenuti fuorvianti. L’intelligenza artificiale, ad esempio, aiuta Individuare e combattere i discorsi di odio O qualsiasi altro contenuto che violi i loro diritti Condurre politiche Su tutte le piattaforme Meta. Tanto che, utilizzando questa tecnologia, sono riusciti a ottenere che per ogni 10.000 visualizzazioni di contenuti, solo uno o due post contenevano incitamento all’odio.

Allo stesso modo, un altro esempio di questo utilizzo è Formazione su Grandi Modelli Linguistici (LLM) Con gli standard della community di Meta, che aiutano a determinare se il contenuto viola le sue politiche. “Gli strumenti di intelligenza artificiale generativa offrono enormi opportunità e crediamo sia possibile e necessario sviluppare queste tecnologie in modo trasparente e responsabile”, ha concluso Clegg.