Relacja na żywo z XIX Sem Campu

Relacja na żywo z XIX Sem Campu
Oceń artykuł!

Sem Camp to spotkania specjalistów z branży SEM. Zimowa edycja nie mogła odbyć się bez udziału K2 Search, zwłaszcza, że jednym z prelegentów jest nasz Head of SEO – Cezary Glijer. Nie możemy się doczekać wszystkich wystąpień, 7 grudnia na uczelni Łazarskiego zgromadzili się prawdziwi eksperci, zobaczcie sami jak interesująco wygląda agenda.

Zaczynamy punkt 10.00, po każdym bloku na naszym blogu będą pojawiały się relacje z dzisiejszego spotkania, zapraszamy, bądźcie z nami cały dzień!

Mariusz Gąsiewski otwiera dzisiejszy Sem Camp z pakietem dobrych praktyk dla stron mobilnych. No to słuchamy 🙂


To o czym nie można zapomnieć to zachowanie standardów w nawigacji stron mobilnych. Strategiczne miejsce powinny być dobrze widzialne i łatwe w obsłudze. Mniej ważne sekcje można ukryć pod znacznikiem więcej lub tak zwanym grzybkiem. Treści na stronie nie mogą się mieszać użytkownikowi z nawigacją, dlatego ostrożnie posługujmy się contentem w formie listy. Utrudnianie życia użytkownikowi to ostatnie na czym nam zależy. Dlatego też cały czas dąży się do ułatwiania procesu ściągania aplikacji czy też zapoznawaniu się z contentem na stronie www (w czytaniu pomagają nam przyciski zmieniające ekran z treścią, alternatywa do niekończącego się scrollowania).

Gąsiewski zwrócił także uwagę na nowe techniki dodawania danych, które są łatwiejsze i czytelniejsze, krótsze. Mając do wyboru wciskanie przycisków i wpisywanie tekstu, zawsze wygodniejsze dla użytkownika będzie pole do wybierania opcji niż ich uzupełnianie. Jeżeli już coś musi uzupełnić to pomagajmy mu w tym (podpowiedzi). Gdy popełni się błąd w formularzu oznaczmy dokładnie w którym miejscu nastąpiła pomyłka i oznaczmy ją czerwonym polem – dzięki temu użytkownik szybko zweryfikuje swój błąd i go poprawi, uzupełni formularz bez irytacji. Jeżeli znalezienie pomyłki będzie kosztowało go sporo wysiłku najprawdopodobniej porzuci stronę i nie dokończy rejestracji.

O tym jak ważny jest czas ładowania strony nie musimy chyba nikogo przekonywać. Warto jednak przypominać o USP, bo o tym się zapomina. Poczucie długości i trudności procesu, zachęta, pilność, strach, wezwanie do akcji – to 5 elementów, nad którymi musimy się pochylić by stworzyć najbardziej optymalną stronę dla użytkownika, by zwyczajne z niej korzystanie było przyjemne i łatwe, by użytkownik chciał rozpocząć jej przeglądanie. Pomocne będzie przygotowanie sobie scenariuszy możliwych zachowań serfujących mobilnie by jeszcze lepiej zrozumieć topografię poruszania się po poszczególnych sekcjach. Przyspiesza to etap finalizacji czy to zakupu, czy innego celu konwersji.

Uzupełnieniem tej prezentacji jest wystąpienie Przemysława Modrzewskiego, który wprowadził nas w tajniki mierzenia zachowań odwiedzających strony www w Google Analytics. 2016 rok to oczywiście będzie rok mobajla, ale przede wszystkim będzie to rok „dążenia do efektywnego mierzenia”. Zasady są proste, najpierw musimy dobrze zbierać dane, a potem przypisać temu atrybucję.
Jak mierzyć użytkowników na mobile? Czego możemy użyć?

  • user log in
  • statistical linking
  • fingerprinting – wejdźcie na Panopticlick i sprawdźcie czy jesteście unikalni ze względu na to co robicie w sieci, taka ciekawostka 🙂

A w narzędziach Google możemy uruchomić od razu Cross Device Conversions w Google Adwords, wystarczy to włączyć i w kolumnach zobaczyć, jak wyglądają konwersje na desktopie oraz na mobile. Do uruchomienia jest także User Id (jeżeli jesteśmy w stanie zalogować naszych użytkowników na stronie i na mobile to powinniśmy to mieć!). Problem jest jednak taki, że jak ktoś się loguje raz, a potem wchodzi ponownie na stronę bez logowania, to już go nie zobaczymy, wiec możemy mieć dziury w łańcuchu prowadzącym do konwersji. I trzecia opcja to Floodlighty Conversion Tracking w Double Clicku.

Co zrobić w Nowym Roku? Przemek radzi by:
1. Zaimplementować user id bo to jest proste i bardzo przydatne.
2. Powinniśmy monitorować także konwersje offline, bo wiemy, że online na nie wpływa – także kolejna rzecz do zrobienia to integracja online + offline. Gdyby policzyć do tego ROAS to bylibyśmy w domu 🙂
3. Przepowiadajmy przyszłość – stwórzmy segment „prawdopodobieństwo konwersji” i skierujmy tam reklamę remarketingową. Możemy do tego wykorzystać również API.
4. Nie bójmy się korzystać z urządzeń i narzędzi z innych stajni. Nie wszystko musi pochodzić od tego samego wydawcy, jeżeli jest kompatybilne to sprawdźmy jak działa. Integracja i automatyzacja to pieśń 2017 roku.

Podsumowując: integrujmy wszystkie możliwe dane, wykorzystujmy nowe narzędzia i możliwości obróbki danych. Twórzmy nowe miary efektywności swoich działań. Szanujmy analitykę, bo bardzo może nam pomóc!

A na deser przykład efektywnego wykorzystania danych:
Case Rozetka – serwisu zakupowego na Ukrainie, podobnego do naszego Allegro. Co oni zrobili? Wyciągnęli dane z analyticsa, dane ze swojego magazynu oraz dane z api szukającego podobnych produktów (Related Products API) w tym sklepie – wrzucili to do Google Clouda i przygotowali maila, newsletter. Wartość ich koszyka wzrosła o 9%. Można? Można!

Teraz mała przerwa kawowa, a tuż po niej wystąpienie Grzegorza Mogilewskiego z Iconaris.com. Czekamy 🙂

Prelegent zachęcał nas w agendzie do spojrzenia na marketing w nowy sposób. Tytuł jego prezentacji to „Rasy, krzyżówki, hodowle, ewolucja. O poszukiwaniach Świętego Graala i sensu wstawania z łóżka”. Dużo się działo podczas tego wystąpienia, było o Conversion Rate, Mikrokonwersjach i nawet Consumer Journey. My podsumujemy to krótko – zgadzamy się z Grzegorzem, że powinniśmy robić więcej eksperymentów. Przeróżnych, sprawdzających wiele aspektów prowadzonych kampanii, użyteczności strony itd.


Następna prezentacja dotyczyła Email Marketing Automation w praktyce. Ponownie weszliśmy w temat wykorzystywania danych z analyticsa. Paweł Sala powiedział nam, że lead musi swoje odleżeć by można było go wykorzystywać, pójść z nim dalej (ten okres to od 6 do 18 miesięcy – wydaje się długo, prawda?). Przekazał nam też kilka praktycznych rad jak radzić sobie z klientami złapanymi na naszej stronie www. Przedstawiciel Freshmaila, podobnie jak większość sali, jest fanem Google Analyticsa i możliwości mierzenia różnych rzeczy. By wykorzystać tę wiedzę w naszych newsleterach musimy stworzyć bazę emaili. Podstawą naszych działań musi być opracowana jedna lista adresowa, w której to będziemy mieli okazję określić persony – archetypy naszych klientów. I tak przykładowo mamy subskrybentów, czyli najbardziej podatnych odbiorców (bo świeżych) treści na stronie. Drugi typ to starzy subskrybenci – czyli tacy zapisani powyżej 2 miesięcy, do nich trzeba inaczej dopasować komunikat i bardziej selekcjonować tekst. Trzecia grupa to osoby zakładający konto trialowe, czwarta to już klienci, a piąta – klienci premium. Taki podział to otwarta furtka do dalszych działań.

Przed 15:00 nadszedł czas na strawienie konkretnego kawałka mięsa i nie mamy tu na myśli obiadu. Na scenę wkroczył Cezzy ze swoją prezentacją dotyczącą przyszłości wyszukiwań Google w 2016 roku. Zaczęło się jak zwykle miło – od podarunku, ale Cezary jest z tego znany! Ale do rzeczy. Era blue links się kończy i organicznych wyników wyszukiwania będzie coraz mniej. Google chce zatrzymać internautę w obrębie swojego systemu i pragnie ograniczać wychodzenie z wyszukiwarki do stron docelowych. Google kieruje się zasadą, że użytkownik jest najważniejszy, trzeba dać mu szybko odpowiedź – konkretną i rzeczową. Google powstał dla człowieka, nie dla stron. Liczy się czas dotarcia do informacji. Królować będzie wyszukiwanie semantyczne, które ma na celu poprawę jakości wyszukiwań.

A teraz magiczne słowo – entity! Co to jest? To obiekty, które mogą być osobą, przedmiotem, związkiem fraz. Wszystkim czego szukamy w sieci. Przy wyrzucaniu wyniku w wyszukiwarce liczy się to gdzie jesteś teraz, jaki masz ustawiony język itd. (dla ciekawskich sprawdźcie sobie case z Metawebem, który został przejęty przez Google).

To na co trzeba zwrócić uwagę to Knowledge Graph i Answear Box.
Knowledge Graph to zbiór named entity (ludzie, brandy, miejsca, które występują w zapytaniach). To wyszukiwanie polega na podaniu użytkownikowi najważniejszych faktów z życia czy istnienia danej rzeczy. Gdy powstało Knowledge Graph to zaczęto zadawać sobie pytanie, czy ono czasem nie wykończy Wikipedii – wygląda podobnie i podaje komplet informacji. Dzięki KG wyniki podawane w wyszukiwarce są głęboko personalizowane, Google domyśla się z jaką intencją wpisaliśmy dane słowo kluczowe by najlepiej odpowiedzieć użytkownikowi. Co więcej Google wie czego wyszukiwaliśmy wcześniej i w jakie rzeczy klikaliśmy ochoczo, a jakie miejsca całkowicie ignorowaliśmy. Dzięki temu podaje nam takie wyniki wyszukiwania, które faktycznie mogą nas zainteresować.

Drugim tematem, na który powinniśmy zwrócić uwagę to Google Answer Box. To twór, który pojawia się nad wynikami wyszukiwania w części środkowej. Gdy zadajemy pytanie głosowe lub pisane to dostaniemy odpowiedź z bazy wiadomości.
Chcesz pobrać jakiś program czy aplikację? Czemu nie, zrób to od razu z poziomu wyszukiwarki, nie trzeba będzie się już przeklikiwać na dodatkowe strony. Są też dostępne mixy tych narzędzi np. MIX Answear Box & Knowledge Bar. Wszystkie te dodatkowe elementy jak przeliczniki, kalkulatory, narzędzia, podawanie dat w specjalnych ramkach – to dodatki od Google by żyło się nam lepiej i wygodniej 🙂 Oczywiście Google ma na to wszystko model biznesowy i ukradkiem przemyca informacje o możliwości pobrania czegoś za darmo do testów itd.

To co może przerażać, to to, że Google rozszerzył nieco pojęcia własności autorskiej i np. traktuje przepisy kulinarne jako dobro wspólne serwując receptury w swoich boxach bez podania autora.

Już za chwilę będziemy mieli okazję wysłuchać prelekcji Dawida Prokopowicza z Google, który zapozna nas z teoretycznymi i praktycznymi aspektami dynamicznych reklam w sieci wyszukiwania. DSA jest nam dobrze znane i często wykorzystywane w kampaniach, więc chętnie zapoznamy się z nowymi możliwościami i ograniczeniami w tym rodzaju reklam. Czekamy na case studies!

Po co robimy DSA i dlaczego rezygnujemy ze słów kluczowych tworząc takie kampanie? Dziennie w wyszukiwarce pojawia się jakieś 15 tys. nowych wyszukiwań, czasami po prostu nie można nadążyć za tymi nowościami. Po to stworzono dynamiczne reklamy w sieci wyszukiwania. W kampaniach DSA na pierwszy rzut oka oddajemy władzę systemowi, Dawid przekonuje nas, że możemy to jednak optymalizować i szybko przekonać się jak bardzo elastyczny jest to twór. Kampanie DSA nie wpływają na jakość działań równoległych w standardowym Searchu. Główne zalety tych kampanii to elastyczność, szybkość podczas uruchomienia (już w kwadrans możemy się wyświetlać ze swoimi reklamami) oraz kontrola.

Przy tworzeniu DSA wybieramy dynamiczne cele reklamy. Najlepiej korzystać ze wszystkich, ale spójrzmy na nie bliżej. Mamy kategorie, które są już wyznaczone w systemie. Drugim typem jest wybór adresu url (lub jego części) lub tytuł strony. Po prostu deklarujemy w Adwords, które strony docelowe mają być przeczesane do stworzenia reklamy. Trzecim celem jest zawartość strony – definiujemy po słowach kluczowych frazy które nas interesują. Niebezpieczeństwo jest tutaj takie, że to kontekstowe kierowanie jest bardzo szerokie i może dojść do przepalenia części budżetu niepotrzebnie. Dlatego decydując się na ten cel ograniczmy go dodatkowo kategorią lub url.

Dobre praktyki DSA:

  • Rozpocznijmy od min. 2 kampanii DSA. W jednej z nich użyjmy wszystkich stron, w drugiej skupmy się na wybranej sekcji
  • Korzystajmy z GA (dopasowanie zapytanie, wymiar dodatkowy: kampania, segment/filtr z nazwą kampanii DSA)
  • Połączmy DSA + RLSA – zawsze z list remarketingowych można liczyć na ekstra konwersje
  • Trzeba w DSA używać wykluczeń (z raportów kampanii searchowych). Zasada jest taka, że lepiej nieco bardziej przyoszczędzić na początku, niż potem być niezadowolonym z wyników kampanii.
  • Można korzystać z optymalizatora konwersji czy docelowego CPA, ale nie można korzystać z wybranej lokalizacji na stronie i nie można ustawić eksperymentu
  • DSA współpracuje z rozszerzeniami, można także korzystać z {KIT}

Sami prowadzimy tego typu kampanie i wiemy, że drzemie w nich potencjał, ale nie zawsze można z niego skorzystać. W naszym przekonaniu nie da się zawsze zastosować tego rozwiązania, po prostu dużo zależy od samej strony i branży klienta.

foto podkradzione z fb Przemka Modrzewskiego

Na sam koniec scena należała do Karola Dziedzica, który opowiedział nam o swoich sposobach na kampanie performanowe w Displayu. Najbardziej ze wszystkich prezentacji cenimy sobie case studies. Najlepiej w praktyce zobaczyć jak działa każde z narzędzi dlatego wiązaliśmy z tą prezentacją wielkie nadzieje na coś nowego i świeżego.

Jak to zrobili w Opido.pl?


Zadanie było proste – w ciągu miesiąca należało pozyskać min. 200 leadów. Frazy związane ze sprzedażą mieszkań w Warszawie i podobne są bardzo drogie wiec trzeba było podejść do tego tematu ze sprytem. W kampanii tekstowej CvR oscylował w okolicy 4-5%, koszt leada wynosił ok. 120 zł i to było za dużo. Co można zrobić więcej oprócz tradycyjnego searcha? Rozważano remarketing albo DSK – display select keyword. Postawiono na to drugie. To narzędzie beta, wiec w tradycyjnym panelu tego nie znajdziemy. Można jednak interweniować u Google i poprosić o dostęp. DSK działa mniej więcej tak, że jeżeli ktoś wyszukuje konkretnych produktów to my podsyłamy mu reklamę dopasowaną do jego potrzeb. To narzędzie, które pozwala na dotarcie do użytkowników przeglądających strony blisko powiązane ze wskazanymi słowami kluczowymi. Po odpaleniu tej kampanii zespół Karola obniżył koszty klika o połowę (co przy tak drogiej branży jest dużym sukcesem), a liczbę konwersje potroił. Mobile został całkowicie uziemiony, nie konwertował należycie. Dobrą radą przy kampaniach DSK jest zaimplementowanie pozyskanych danych po user id do Google Analyticsa, by wiedzieć z których klientów można mieć największą korzyść.
Zagrożenia związane z DSK:
Trzeba stale monitorować gdzie wyświetlają się nasze reklamy by nie przepalać budżetu w serwisach, które żyją na uzupełnianiu formularzy.

I na koniec MY – reprezentacja K2 Search 🙂 Szkoda, że nie w komplecie!

Jeżeli jesteście ciekawi jak wyglądały poprzednie Sem Campy to zapraszamy do zapoznania się z naszymi relacjami, które znajdziecie w linkach poniżej:
Sem Camp XVII
Sem Camp XVIII

Nina Wisniewska
SEM Manager
W K2 Search pracuję od 3 lat i obecnie zajmuję stanowisko Sem Managera. Posiadam komplet certyfikatów Google oraz DoubleClick. Specjalizuję się w branży Health&Beauty. Dla swoich Klientów prowadzę kampanie performencowe, jak i zasięgowe. Jestem pasjonatką internetu i jego możliwości. Na co dzień prowadzę swojego bloga DobreGeny.pl i jeżdżę na rowerze. Jestem wielką fanką zumby i gier planszowych.