Emotion AI – sztuczna inteligencja w skuteczniejszym badaniu reklam – case study z badania Eye Tracking oraz Face TrackingEmotion AI – sztuczna inteligencja w skuteczniejszym badaniu reklam – case study z badania Eye Tracking oraz Face TrackingEmotion AI – sztuczna inteligencja w skuteczniejszym badaniu reklam – case study z badania Eye Tracking oraz Face TrackingEmotion AI – sztuczna inteligencja w skuteczniejszym badaniu reklam – case study z badania Eye Tracking oraz Face Tracking
Ludzka mimika jest trudna do badania (fot. Open Research)

Emotion AI – sztuczna inteligencja w skuteczniejszym badaniu reklam – case study z badania Eye Tracking oraz Face Tracking

Emotion AI – sztuczna inteligencja w skuteczniejszym badaniu reklam – case study z badania Eye Tracking oraz Face Tracking
Redakcja

Redakcja

-

×

Obecnie możesz przeczytać

1 artykuł dziennie

Zarejestruj się bezpłatnie,

aby otrzymać dostęp do 4915 artykułów

Masz już konto?
Zaloguj się
Ludzie coraz częściej oczekują od marek, że będą zmieniały świat. Pomogą uratować planetę i sprawią, że będziemy żyli bardziej harmonijnie. Marki próbują to robić, a mimo to są coraz gorzej oceniane. Jest jednak pewna pozytywna wiadomość dla opiekunów marek. Nowe narzędzia badawcze sprawiają, że w świecie braku koncentracji można lepiej konstruować przekazy reklamowe.

Kolejne edycje globalnych badań przeprowadzanych od kilkunastu lat pokazują, że poziom zaufania do marek spada. Dlaczego tak jest? Jedna z odpowiedzi mówi, że im więcej marek podejmuje nośne tematy i obiecuje zmianę świata, tym większe są wobec nich oczekiwania. Późniejsze rozczarowanie napędza brak zaufania odbiorców.

Ale jest również bardziej prozaiczne wytłumaczenie. Spora część kampanii i obietnic może nie być zauważana przez odbiorców w natłoku przekazów. Uwaga poświęcana reklamie nie ma charakteru zero-jedynkowego. Jest skokowa, może zmieniać się z aktywnej w pasywną albo zupełnie znikać co kilka sekund. I znika, gdy oglądane kreacje są źle skonstruowane, nie wywołują w widzach żadnych emocji. Zdarza się też, że są błędnie przypisywane innej marce.

Case study przedstawiające analizę zaangażowania i emocji reklam którą przeprowadzono za pomocą narzędzia Emotion AI (połączenie badania Eye Tracking oraz Face Tracking AI), można pobrać pod adresem https://facetracking.openresearch.pl/

Briefy, które wskazują, że kampania ma wywoływać określone emocje, wcale nie pomagają agencjom kreatywnym

Emocje można wywołać na wiele różnych sposobów. Nie znaczy to jednak, że konsumenci będą je automatycznie łączyli z marką i przekładali na decyzje przy sklepowej półce.

Od lat jedną z najbardziej znanych i nagradzanych reklam jest „Gorilla” marki czekolady Cadbury. Brief zakładał „ponowne odkrycie radości”, nakręcono więc spot z gorylem grającym na bębnach do piosenki „In the Air Tonight” Phila Collinsa. Film wywoływał taką radość, że obejrzały go miliony ludzi na całym świecie.

Szefowie Cadbury, zachęceni sukcesem, natychmiast zamówili kolejną kampanię. Na podstawie tej samej strategii, tego samego briefu, z tą samą agencją, tym samym budżetem i reżyserem. Efekt powinien być ten sam, prawda? A jednak nie był. Kampania nie przyniosła żadnego wzrostu sprzedaży. Nie poprawiła też wizerunku marki. Stało się tak, mimo że w badaniach deklaratywnych konsumenci kojarzyli tę reklamę z przygodą i ekscytacją, a wcześniejszą „Gorillę” z przyjemnością i bezpieczeństwem. Czego zabrakło? Nie zbadano potencjału nowej reklamy w kontekście marki.

Wiele działów marketingu i agencji w Polsce doświadcza takiej sytuacji. Niektóre reklamy wywołują emocje i zainteresowanie od samego początku, a inne z jakiegoś powodu nie. A nawet jeśli wywołują – nie przekłada się to na sprzedaż i wskaźniki marki. Bez rzetelnych danych nikt nie wie, dlaczego tak jest. Odpowiedź może dać narzędzie Emotion AI firmy badawczej Open Research na podstawie technologii firmy Affectiva.

Od Darwina do Emotion AI

Dopracowywania kreacji marketerzy i agencje kreatywne uczyli się przez lata. Pouczający był choćby przykład kampanii piwa „Królewskie” z lat 2001–2003. Reklamy są pamiętane do dziś i określane jako kultowe. Pokazywały grupę żonatych mężczyzn mieszkających po sąsiedzku, którzy za pomocą różnych wybiegów wymykali się z domu, żeby wspólnie napić się piwa. Spoty były zabawne, tyle że… nie dla tych, którzy naprawdę kupowali piwo tej marki. Ci odbiorcy nie chcieli utożsamiać się z takimi bohaterami.

Case study przedstawiające analizę zaangażowania i emocji reklam którą przeprowadzono za pomocą narzędzia Emotion AI (połączenie badania Eye Tracking oraz Face Tracking AI), można pobrać pod adresem https://facetracking.openresearch.pl/

Wraz z pojawieniem się technologii do badania ludzkich zachowań tego rodzaju wpadek jest mniej. Przebadano np. klasyczną już reklamę telewizorów Sony Bravia „Bouncing Balls”. Tę, która ukazywała 25 tys. piłeczek skaczących po spadzistych ulicach San Francisco przy dźwiękach „Heartbeats” Jose Gonzaleza. Nagrane sceny z kolorowymi piłkami były naprawdę efektowne. A jednak z pierwszych niedeklaratywnych badań kreacji wynikało, że największe odchylenie wskaźników u badanych pojawiło się w momencie, gdy na ekranie widać też… żabę wyskakującą z rynny. Nikt nie wyłapałby tego za pomocą badań deklaratywnych.

Dzisiaj jeszcze łatwiej jest dokonywać takich odkryć. Narzędzie Emotion AI zbiera i analizuje dane niedeklaratywne, czyli wynikające z zachowań na poziomie nieświadomym. Składa się z dwóch technologii:

  • Eyetracking. Rejestruje ruch gałki ocznej za pomocą czujników podczerwieni i kamer wysokiej rozdzielczości. Analizuje skupienie oka na poszczególnych elementach (fiksacje) i szybkie ruchy oka między kolejnymi elementami (sakady). Następnie pozycja oka jest nakładana na oglądany obraz. Miejsca, w których grupują się fiksacje, pokazuje mapa cieplna (heat map).
  • Facial Action Coding System (FACS). Jest to system klasyfikacji mimiki ludzi na podstawie cech anatomicznych. Eksperci przeanalizowali ludzkie twarze i opisali ekspresje mimiczne nazwane jednostkami działania (AU). Każda jednostka AU odpowiada jednostce mięśnia twarzy lub grupie mięśni i jest identyfikowana przez numer, np. AU1, AU2.

Technologia firmy Affectiva, stosowana w wykorzystywanej technice Emotion AI, charakteryzuje się wysoką precyzją pomiaru. Do skalibrowania algorytmu przeanalizowano na świecie ponad 2 miliony twarzy, przetestowano 13 miliardów klatek reklamowych w ponad 90 krajach z uwzględnieniem uwarunkowań kulturowych (płeć, wiek, rasa). Technologia ta jest obecna na rynku od ponad 10 lat i jest dostępna w dwóch formatach: stacjonarnym oraz online.

Współczesne, wysokiej jakości kodowanie twarzy przy pomocy sztucznej inteligencji opiera się na wiedzy naukowej gromadzonej przez ponad 100 lat i potwierdzonej licznymi badaniami akademickimi. Z dostępnych na rynku badań biometrycznych jest to wysoko efektywna i skuteczna technika w badaniu materiałów reklamowych, jak również jest łatwiejsza w interpretacji i zrozumieniu, np. w porównaniu do badań EEG.

Badanie ludzkiej mimiki jest trudne, mimo że ma długą tradycję

Już Karol Darwin w książce „O wyrazie uczuć u człowieka i zwierząt” rozkładał mimikę na czynniki pierwsze. Jak twierdził, szybkie przekazywanie sobie emocji było niezbędne dla przetrwania gatunku, a twarz stała się swoistym „billboardem serca”. Od lat pięćdziesiątych XX w. Paul Ekman pracował nad metodą obiektywnego kodowania aktywności mimiki, tzw. Facial Action Coding System. Wyróżnił 6 podstawowych emocji: szczęście, złość, smutek, obrzydzenie, zaskoczenie i strach. Opisał m.in. tzw. uśmiech Pan Am, czyli uśmiech stewardesy, która stara się być uprzejma. Podnosi kąciki ust za pomocą mięśnia jarzmowego większego, reszta twarzy zostaje nieruchoma, dlatego uśmiech wygląda na nieszczery. Obecnie, 60 lat później, opracowany przez Ekmana zbiór ekspresji mimicznych dalej jest podstawą nowoczesnych systemów do badania emocji.

W kontekście reklam ograniczenie się tylko do badania mimiki zaburzałoby wyniki. Dlatego Emotion AI wykorzystuje obie technologie: zarówno badanie mimiki, jak i ruchu gałek ocznych.

Pozwala zbadać:

  • Prawdziwe opinie na temat oglądanych reklam
    Potencjał reklam
    Wyniki reklam w odniesieniu do polskich i zagranicznych benchmarków
  • Reklamy i prototypy reklam wideo
    Zauważalność reklam w różnych układach bannerów
    Wpływ reklamy na odbiór marki
    Wpływ kontekstu informacyjnego na odbiór reklamy
  • Reklamy i materiały online
    Reklamy w serwisach streamingowych
    Zauważalność reklam
    Odbiór trailerów seriali

Znikanie po stronie mam

Porównajmy wyniki badania dwóch kreacji reklamowych:

  • „Po stronie mam” marki Nurofen;
  • „Znikanie” marki Lidl.

 

https://www.youtube.com/watch?v=H-grPXT8-F8

Spoty przetestowano w lipcu 2022 roku na ogólnopolskiej próbie stu osób w wieku 18–59 lat, regularnie oglądających telewizję. Badani oglądali sześć spotów, wśród których był film badanej marki. Reklamy w bloku były prezentowane w rotowanej kolejności. Wyniki Facial Expression Analysis wykazały na wykresie emocje pozytywne, negatywne i neutralne, czyli zaangażowanie emocjonalne w każdej sekundzie spotu.

Case study przedstawiające analizę zaangażowania i emocji reklam którą przeprowadzono za pomocą narzędzia Emotion AI (połączenie badania Eye Tracking oraz Face Tracking AI), można pobrać pod adresem https://facetracking.openresearch.pl/

Spot Lidla

https://www.youtube.com/watch?v=H-grPXT8-F8

Badanie pokazało stosunkowo niski potencjał tej kreacji. Zaangażowanie badanych, w pierwszych sekundach niskie, później powoli rosło. Po kilku sekundach znowu jednak widać było wahnięcia w dół.

W kolejnych sekundach spotu znikają różne przedmioty, a zaangażowanie oglądających rośnie. Na ich twarzach malują się jednak również pojedyncze emocje negatywne: strach, zmieszanie, pogarda.

Eyetracking wykazał, że jedynie 14% respondentów spojrzało na logo w lewym górnym rogu przez całą jego obecność w spocie. Badanie pokazuje także:

  • czas patrzenia na wszystkie elementy reklamy, wyrażony w procentach i sekundach;
  • odsetek respondentów, którzy spojrzeli na określony element;
  • długość pierwszej fiksacji na elemencie.

Badanie eyetrackingowe i Facial Action Coding uzupełnia pomiar czasu reakcji: im szybciej udzielona zostaje odpowiedź, tym jest ona pewniejsza. Reklamę Lidla uznano za zabawną. Na poziomie deklaracji potencjał perswazyjności jest wysoki, choć ograniczony. Tylko co piąty badany jest pewny swoich postaw związanych z chęcią odwiedzenia sklepu marki.

Spójrzmy teraz na spot marki Nurofen

Kategoria leków OTC uchodzi za łatwą do reklamowania. Najczęściej według jednego szablonu: bohater opowiada, jak rozwiązał problem, zażywając reklamowany preparat, chociaż „inne środki” wcześniej zawodziły. Badanie narzędziem Emotion AI pokazuje jednak, że warto dopracować kreację.

Spot utrzymuje zaangażowanie; prawie nie ma momentów nagłych spadków. Dopiero pod koniec zaangażowanie spada. Wtedy, gdy występuje element charakterystyczny dla tej kategorii produktowej: pojawia się formułka o konieczności skonsultowania się z lekarzem lub farmaceutą.

Aż 95% badanych spojrzało na logo w ciągu całego spotu. Przełożyło się to na wyższą zapamiętywalność logo w spocie i lepszy odbiór reklamy na poziomie deklaracji.

Dopracowana kreacja reklamowa ma wyższe szanse wywołania emocji, które spowodują przypomnienie o marce i wpłyną na zachowanie już nie widza, lecz kupującego. Jednocześnie reklama nie może być nachalna. Nie powinna mówić ludziom, jak będą się czuli – powinna te uczucia wywoływać. Dwie reklamy mogą wywoływać te same emocje, np. radość, ale zupełnie inaczej przekładać się na markę. Same badania deklaratywne tego nie wychwycą.

Narzędzie do badania materiałów reklamowych Emotion AI pozwala na użycie złożonych technik badawczych w krótkim czasie oraz przy niskim budżecie. Umożliwia dopracowanie kreacji reklamowej. A kreacja jest czymś, co ma znacznie większy wpływ na końcowy sukces niż jakakolwiek inna zmienna kampanii. Szczególnie w sytuacji, gdy walka o uwagę konsumenta jest wyjątkowo zaciekła.

Case study przedstawiające analizę zaangażowania i emocji reklam którą przeprowadzono za pomocą narzędzia Emotion AI (połączenie badania Eye Tracking oraz Face Tracking AI), można pobrać pod adresem https://facetracking.openresearch.pl/