Obsah:
Očakáva sa, že falošné správy budú veľkým tŕňom v súvislosti s nadchádzajúcimi prezidentskými voľbami, nehovoriac o jeho celkovom korozívnom účinku na náš verejný diskurz všeobecne. V dnešnej prepojenej spoločnosti je rozlišovanie fikcie čoraz ťažšie, a preto sa niektorí vedci začínajú zameriavať na silu umelej inteligencie pri riešení tohto problému.
Dúfam, samozrejme, že stroje alebo presnejšie algoritmy budú pri zisťovaní klamstiev lepšie ako ľudia. Je to však realistické očakávanie alebo len ďalší prípad hádzania technológie do zdanlivo neprekonateľného problému?
Chytiť zlodeja., ,
Jedným zo spôsobov, ako vedci údajov plánujú zaostriť Aumen v tejto oblasti, je umožniť im vytvárať falošné správy. Allen Institute for AI na University of Washington vyvinul a verejne vydal Grover, stroj na spracovanie prirodzeného jazyka určený na vytváranie falošných príbehov o širokej škále tém. Aj keď sa to na prvý pohľad môže zdať kontraproduktívne, v skutočnosti ide o pomerne častú taktiku tréningu AI, v ktorej jeden stroj analyzuje výstup druhého. Týmto spôsobom je možné analytickú stránku uviesť do vyššej rýchlosti, než sa spoliehať na skutočné falošné správy. Inštitút tvrdí, že Grover už môže fungovať s presnosťou 92%, je však dôležité si uvedomiť, že je iba schopný rozlišovať medzi obsahom generovaným AI a obsahom generovaným človekom, čo znamená, že inteligentný človek môže stále prepašovať falošný príbeh okolo toho. (Ak sa chcete dozvedieť viac, pozrite si informácie o technológiách okolo bojujúcich falošných správ.)