
Wielką zaletą Internetu w erze Web 2.0 miała być dla firm mnogość informacji, jakie pozostawiają on-line internauci – należało tylko nauczyć się je zbierać i analizować. Niektórzy twierdzą, że te optymistyczne wizje upadły w starciu z praktyką. Potrafimy skutecznie analizować dane z serwisów społecznościowych, blogów itp.?

To dobre pytanie. W przypadku Internetu w pierwszej fazie rozwoju istotnie doszło do swoistego zachłyśnięcia się faktem, że taki ogrom informacji jest dostępny. Zwłaszcza że pokazują one nie deklaracje, ale rzeczywiste działania określonych osób.
Obecnie stosowane techniki analizy tych danych opierają się na metodach statystycznych i ekonometrycznych wywodzących się jeszcze z metodologii badań socjologicznych z lat 60. ubiegłego wieku. Nagle pojawiła się masa informacji, która jeszcze dziesięć, piętnaście lat temu pozostawała zupełnie poza zasięgiem profesjonalnej analizy danych do celów marketingowych.
W ramach rozwoju sztucznej inteligencji oraz tak zwanego maszynowego uczenia się wypracowano szereg technik nazywanych drążeniem danych (data mining). Jest to eksploracja danych nie tylko na poziomie ilościowym, ale także jakościowym i, co najciekawsze, tekstowym (text mining). Profesjonalne zastosowanie tych technik znajduje się jednak dopiero w początkowej fazie rozwoju.
Oczywiście, obserwując działania Google czy Amazonu, można łatwo dojść do wniosku, że już dziś wykorzystywane są one na wielką skalę, choć nie jest to wprost ujawniane. Podobne próby podejmowane są także w przypadku portali społecznościowych.
Ale nawet jeśli dzięki wykorzystaniu najnowszych technik udaje nam się stworzyć profil jakiejś konkretnej osoby czy opis grupy osób, pojawia się problem wykorzystania tej wiedzy na poziomie biznesowym. Istnieje przepaść między światem twardych danych o klientach a możliwościami przełożenia tych informacji na działania operacyjne.