23 Marzo 2023 1321 parole, 6 lettura minima

ChatGPT: 4 fonti di rischio per l’inbound marketing

Di Pierre-Nicolas Schwab Dottorato di ricerca in marketing, direttore di IntoTheMinds
Le aziende che si affidano al SEO per trovare clienti potrebbero aver bisogno di aiuto per la generazione di lead. Dopo alcune settimane di utilizzo di ChatGPT e del nuovo Bing, ho analizzato i pericoli di questi agenti conversazionali per […]

Le aziende che si affidano al SEO per trovare clienti potrebbero aver bisogno di aiuto per la generazione di lead. Dopo alcune settimane di utilizzo di ChatGPT e del nuovo Bing, ho analizzato i pericoli di questi agenti conversazionali per le aziende che utilizzano l’inbound marketing. Sulla base del contesto di ricerca, ho identificato 4 problemi che potrebbero avere un impatto negativo sugli utenti.

Contactez notre agence pour vos projets d’inbound marketing

Sommario

  1. L’opacità dei dati utilizzati per la formazione
  2. Risposte sbagliate ma molto convincenti
  3. Pregiudizio di selezione
  4. Rischio di serendipità
  5. Conclusione

L’opacità dei dati utilizzati per la formazione

Le risposte degli agenti conversazionali possono evolvere in base ai dati che assorbono durante le interazioni con gli utenti. Ricordiamo lo sfortunato episodio del chatbot nazista di Microsoft, che ha fatto presagire i possibili eccessi di questo tipo di intelligenza artificiale. Sappiamo che Open AI ha utilizzato lavoratori kenioti pagati 2 dollari l’ora per supervisionare l’addestramento di ChatGPT ed evitare le sue derive. Tuttavia, anche i corpora inviati a ChatGPT sono integrati nel suo corpus. Aziende molto serie come JPMorgan o Amazon si sono preoccupate di questo e hanno vietato ai loro dipendenti di usare ChatGPT per paura che potessero trapelare dati riservati. Eppure Microsoft ha dichiarato, dopo il rilascio di GPT-4, che i dati dei clienti non sono stati utilizzati per la formazione dei modelli.

inbound marketing riposte

Esempio di allucinazione generativa dell’IA. Bing spiega che ChatGPT è stato sviluppato in Cina.

Il problema non è se i dati vengono sfruttati o meno. Il problema è che l’agente conversazionale viene addestrato su un set di dati opachi. Mi direte che l’algoritmo di Google potrebbe essere più trasparente, e avreste ragione. Tuttavia, ci sono due differenze:

  • i fattori importanti che devono essere presi in considerazione dall’algoritmo di Google sono più o meno noti (backlink, freschezza e dimensione dei contenuti, ecc…), e può essere richiesta l’indicizzazione delle tue pagine
  • le informazioni utilizzate per formulare le risposte in ChatGPT & Co sembrano abbastanza casuali. È impossibile sapere da dove provengano queste informazioni; a volte, deve essere corretto. Ad esempio, l’agente conversazionale di Bing ha spiegato che IntoTheMinds aveva svolto ricerche di mercato per aziende che non sono mai state nostri clienti.

Tutto questo porta alle famose “allucinazioni”, un vero e proprio veleno informativo. Si tratta né più né meno che di Fake News tollerate sotto la copertura di limiti tecnologici.

Ho riprodotto un esempio aneddotico ma sintomatico. Bing spiega che ChatGPT è stato sviluppato in Cina


Si tratta né più né meno che di Fake News tollerate sotto la copertura di limiti tecnologici


Risposte sbagliate ma molto convincenti

Gli LLM (Large Language Models) possono formulare risposte false in modo molto convincente. Ho usato il nuovo Bing in diversi contesti e ho sottoposto compiti di varia complessità. Le mie domande sono state formulate in inglese e in francese e ogni volta sono stato ingannato dalla struttura della risposta e dalle argomentazioni addotte. Tranne che per gli argomenti che padroneggiavo bene, ho capito subito che le informazioni dovevano essere corrette. Quando ci si affida all’inbound marketing per trovare clienti, queste false risposte possono avere conseguenze negative.

Ad esempio, ecco cosa risponde Bing alla mia domanda “Perché scegliere IntoTheMinds?”. Poiché si tratta della mia azienda, penso di conoscerla relativamente bene? . Ecco la sua risposta.

inbound marketing bias di selezione

Exemple d’une réponse de Bing (GPT-3) contenant des données objectivement fausses.

Obiettivamente, non ho nulla da dire sui primi tre punti, poiché provengono direttamente dal nostro sito web. Tuttavia, c’è un problema con il quarto punto. Purtroppo non siamo mai stati contattati da Orange, L’Oréal, Nespresso o Ikea (vedi parte evidenziata in giallo).

In questo caso, la risposta di Bing non mi preoccupa più di tanto. Queste aziende sono prestigiose ed essere associati a loro non può che essere positivo. Ma immaginate che Bing vi spieghi che avete lavorato con un’azienda di sigarette, un trafficante di armi o un’organizzazione politica di estrema destra. Il rischio di reputazione è reale e non c’è modo di controllare i risultati o di lamentarsi


Quindi, non c’è una vera intelligenza nella selezione delle informazioni, ma piuttosto un’enorme vulnerabilità a risultati falsi o non aggiornati.


Bias di selezione

Gli agenti conversazionali come ChatGPT o Bing hanno il vantaggio di offrire una risposta immediata alle domande. Nel farlo, offrono risposte solitamente coincise. Questo li porta talvolta a prendere scorciatoie e a privilegiare la brevità rispetto all’esaustività. I test che ho condotto mostrano che le risposte sono raramente complete, tranne che per domande molto specifiche e chiuse. Non appena il compito affidato a GPT diventa più complicato, richiedendo, ad esempio, un’analisi, aspettatevi qualche sorpresa. Potreste essere più avvantaggiati da una ricerca classica che vi dia accesso a varie pagine web.

Il problema dell’intelligenza artificiale generativa è il pregiudizio della selezione. ChatGPT non ci dice nemmeno quali sono le sue fonti, e Bing ne cita alcune senza spiegare per quale motivo o come sono state selezionate. Sappiamo anche che l’IA generativa soffre di un “pregiudizio ideologico” derivante dai dati di formazione.

Ecco un esempio. Ho chiesto a Bing un consiglio sulle società di ricerche di mercato in Belgio. Per una persona estranea a questo mercato, la risposta può sembrare convincente. Ma la risposta proposta fa sorridere chi opera in questo mercato da 20 anni (io in questo caso).

inbound marketing serendipità

Bing (GPT-3) a volte si affida ai comparatori per fornire le risposte. Dipende quindi dalla qualità delle informazioni fornite da questi siti terzi.

Noterete innanzitutto che si basa su un’unica fonte (un sito sconosciuto chiamato GoodFirms). Bing propone poi 4 aziende, una delle quali si trova… in Bulgaria (evidenziata in giallo), mentre un’altra (che ho reso anonima) non è più attiva.

La distorsione della selezione è evidente e gli errori notati ne conseguono. La grande debolezza dell’IA generativa è, infatti, quella di affidarsi ad altri siti. Per questo tipo di richiesta, Bing non fa altro che “tradurre” la richiesta in parole chiave e far emergere i risultati di una o più pagine. Non c’è quindi una vera intelligenza nel selezionare le informazioni, ma piuttosto un’enorme vulnerabilità a risultati falsi o non aggiornati.


Il rischio della serendipità

Credo molto nel concetto di serendipità in Internet. La serendipità è la capacità di scoprire informazioni interessanti che non ci si aspettava. L’uso di un agente conversazionale presenta anche un rischio di impoverimento intellettuale per l’utente.

Riducendo al minimo l’impegno dell’utente e mettendo in cortocircuito la ricerca, gli agenti conversazionali riducono senza dubbio il carico cognitivo dell’utente e la sua capacità di scoprire nuove informazioni.

In una ricerca B2B, questa serendipità è essenziale. Se l’utente dietro il suo schermo sta cercando un fornitore, ha bisogno di saperne di più sul mercato e su chi contattare. Un motore di ricerca classico lo esporrà a diversi risultati che lo aiuteranno a perfezionare la sua richiesta. In questo modo, il motore di ricerca classico contribuisce a rendere l’utente più informato. Può quindi comprendere le differenze e i punti in comune tra i fornitori concorrenti e rivolgersi a quelli che soddisfano meglio le sue esigenze. Questa è l’essenza dell’inbound marketing.

Con l’IA generativa, queste sfumature scompaiono, dando luogo a informazioni distorte e potenzialmente false (vedi esempi precedenti)

inbound marketing conclusione

Conclusione

In questo articolo ho discusso i 4 problemi dell’IA generativa. Questi problemi avranno un impatto sulle aziende che utilizzano l’inbound marketing per trovare i propri clienti:

  1. I dati della formazione portano a “allucinazioni”, che non sono altro che “fake news”.
  2. Risposte errate offerte in forme molto convincenti, che inducono l’utente in errore.
  3. Esistono pregiudizi di selezione che portano a presentare all’utente informazioni distorte.
  4. Il meccanismo di funzionamento degli agenti conversazionali elimina qualsiasi possibilità di serendipità.

Anche se non credo che i comportamenti di ricerca online cambieranno, dobbiamo fare i conti con ChatGPT e i suoi cloni. Quindi, è meglio prepararsi ora per limitare l’impatto sul vostro inbound marketing. Di questo mi occuperò in un altro articolo.



Posted in Data e IT.

Pubblica la tua opinione

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *