Domov zabezpečenia Aké sú niektoré z hlavných problémov veľkých dát, pokiaľ ide o digitálnu forenznú analýzu?

Aké sú niektoré z hlavných problémov veľkých dát, pokiaľ ide o digitálnu forenznú analýzu?

Anonim

Q:

Aké sú niektoré z hlavných problémov veľkých dát, pokiaľ ide o digitálnu forenznú analýzu?

A:

Jedným z najvýznamnejších axiómov forenzných, digitálnych alebo iných, je Locardov princíp výmeny. Jednoducho povedané, tento princíp, formulovaný Dr. Edmondom Locardom (známym vo svojej dobe ako „francúzsky Sherlock Holmes“), uvádza:

"Každý kontakt zanecháva stopu."

Tieto stopy sú malé kúsky, ktoré nám zanechali forenzní vyšetrovatelia, aby sme v danej situácii pomohli určiť, čo sa stalo, kde sa stalo, komu sa stalo, kedy sa stalo, ako sa to stalo a kto to urobil.

Digitálna forenzia je teda sledovaním artefaktov a stôp digitálneho dôkazu: malé údaje, nie veľké údaje. Big data, ako koncept, je štúdium obrovských a komplexných dátových súborov, v ktorých tradičné metódy analýzy nefungujú, ako aj nové metodiky „veľkých údajov“.

Algoritmy umelej inteligencie sa môžu napríklad použiť na zisťovanie spôsobov používania v mobilných zariadeniach a GPS na určenie mikroregiónov bohatstva alebo chudoby. Toto je dobrý príklad „veľkých údajov“ v práci.

Veľké dáta preto pre digitálnu forenznú oblasť nepredstavujú veľkú výzvu, pretože sa zaoberajú menšími množinami údajov.

Aké sú niektoré z hlavných problémov veľkých dát, pokiaľ ide o digitálnu forenznú analýzu?