Era più che preventivabile che prima o poi sarebbe successo: ChatGpt e gli altri bot conversazionali basati su intelligenza artificiale stanno riscuotendo un grande successo anche sulle piattaforme di dating, per suggerire biografie accattivanti, scrivere al volo frasi d’acchiappo o per rendere più interessanti i primi approcci con persone con il quale è scattato il match. Due gli scenari possibili: da un lato le app stesse potrebbero introdurre sistemi integrati per aiutare a rompere il ghiaccio a chi è più timido, mentre il lato oscuro della medaglia è un fiorire ancora più consistente di account dove è davvero tutto fake, dalle foto alle conversazioni.
DALL-E 2 - Fonte: Wired
“Ma quindi siamo tipo sposati adesso?”, era questa la frase più gettonata dal modello di acchiappo basato su intelligenza artificiale allestito dall’ingegnere informatico Anthony Rivera per cercare di fare colpo su Tinder, in un esperimento raccontato dal Wall Street Journal che rivela come sia stato possibile addirittura organizzare un appuntamento dal vivo solo con le chat autogenerate in risposta all’interazione umana dall’altro capo del match. Un altro progetto in corso è Keys AI, un’app per iOs per lasciare che l’i.a. scriva per te in qualsiasi ambito, la startup ha raccolto circa 3 milioni di euro, ma le opzioni per flirtare sono un pagamento extra che richiede circa 14 euro per ottenere frasi di acchiappo pronte all’uso. Di sicuro i modelli personalizzati sembrano avere un approccio più brillante di ChatGpt, visto che i suoi suggerimenti sono piuttosto basilari, almeno in italiano:
Il futuro delle intelligenze artificiali con il dating potrebbe in realtà vedere strumenti integrati nelle app, che già ora possono suggerire frasi o consigli, ma che potrebbero diventare più precise e più originali. Un aiuto utile, di contraltare però le AI potrebbero dare il via a truffe sempre più realistiche e difficili da gestire soprattutto per utenti poco esperti: oltre a caricare foto di altre persone oppure generate da AI stesse per stuzzicare l’attenzione, i bot conversazionali potrebbero accalappiare vittime poi da spolpare con i metodi ben noti.