Czy treści AI zachwieją pozycją stron internetowych w wyszukiwarkach?

Temat sztucznej inteligencji i jej wykorzystania w procesie twórczym stał się niezwykle głośny pod koniec 2022 i na początku 2023 roku. W zakrojonej na szeroką skalę debacie pojawiają się zarówno głosy pełne zachwytu, sceptycyzmu, jak i strachu. To ostatnie uczucie towarzyszy przede wszystkim osobom zajmującym się zawodami wymagającymi kreatywności, kunsztu artystycznego i biegłości pisarskiej – copywriterom, grafikom, dziennikarzom, ale także niektórym programistom. 

 

Przyjrzyjmy się zatem, czy tekst tworzony na strony internetowe przez AI faktycznie przyniesie same korzyści tak czytelnikom, jak i algorytmom pozycjonowania stron. Czy utoniemy w generowanych masowo treściach? A może słowo pisane przez człowieka nadal ma unikalną wartość i jest nie do podrobienia? Zapraszamy do lektury!

 

 

Poznać wroga: czym jest sztuczna inteligencja i jak tworzy treść

 

 

Chociaż nazywanie sztucznej inteligencji wrogiem jest celowym wyolbrzymieniem nawiązującym do klasyki science-fiction, nie da się ukryć, że wynalazek ten może stanowić pewnego rodzaju zagrożenie dla wielu społeczeństw. Jeden z gorszych scenariuszy to potok co najwyżej średniej (a zwykle niskiej) jakości tekstów, które, choć proste w odbiorze i czytelne, nie będą niosły ze sobą odkrywczych idei, ani angażującej narracji. Oczywiście będzie to jednocześnie oznaczać masową utratę pracy lub znaczną redukcję etatów wśród copywriterów, dziennikarzy i części specjalistów SEO.

 

Z drugiej strony nie można demonizować narzędzia, jakim jest sztuczna inteligencja i trzeba pogodzić się z jej obecnością w branżach kreatywnych. Nie można też ukrywać, że jest to narzędzie użyteczne, ułatwiające i przyśpieszające pracę, a przy okazji także wymuszające poprawę warsztatu pisarskiego wśród mniej doświadczonych twórców. Skupmy się jednak na tym, czym jest sztuczna inteligencja i jak w podstawowym zakresie wygląda generowanie przez nią treści tekstowych. Będzie to świetną bazą dla dalszych rozważań nad możliwościami i zagrożeniami, jakie niesie ze sobą ta technologia.

 

Sztuczna inteligencja (ang. artificial intelligence) w rozumieniu związanym z generowaniem treści to technologia, której działanie opiera się na częściowo automatycznym i niezależnym podejmowaniu decyzji na podstawie dostarczonych z zewnątrz bodźców i danych. Może budzić wątpliwości już samo to, że sztuczna inteligencja potrzebuje "wkładu" od człowieka, czyli odpowiedniej informacji wejściowej. Sprawia to, że kontent tworzony przez AI będzie zawsze w pewien sposób reinterpretacją dotychczasowej wiedzy ludzkiej, a nie innowacją i nowymi pomysłami – tak przynajmniej wygląda sprawa dotychczas.

 

 

AI oczywiście zostało także odpowiednio "przeszkolone" i "nakarmione" informacjami dostarczonymi przez twórców. Wreszcie, mimo zaawansowania sieci neuronowych i nauczania maszynowego, generowanie treści wciąż opiera się o budowanie skojarzeń i przewidywanie kolejnych słów odpowiedzi, zamiast na analizie problemu. Sprawia to, że odpowiedzi podawane przez AI mogą wydawać się logiczne, jednak niekoniecznie są one tworzone pod użytkowników szukających rozwiązań swoich problemów. A to ostatnie jest jak wiadomo ważną częścią pozycjonowania stron w wyszukiwarkach.

 

Trzeba mieć świadomość, że chociaż AI jako narzędzie twórcze rozwijane jest od wielu lat, to poziom zaawansowania pozwalający na jego szerokie zastosowanie komercyjne w tworzeniu kontentu tekstowego jest w chwili pisania tego artykułu (początek marca 2023) kwestią ostatnich kilku-kilkunastu miesięcy. Zwłaszcza przełom 2022 i 2023 odznacza się prawdziwym boomem w popularności tego rozwiązania, a prym wiedzie tu przede wszystkim narzędzie ChatGPT. Z powodu tak gwałtownego rozwoju tej dziedziny, trudno jest także tworzyć precyzyjne prognozy na temat jej nieodległej nawet przyszłości.

 

 

Największe słabości treści tworzonych przez AI

 

 

Wymieniono już niektóre słabości sztucznej inteligencji, jednak można wyróżnić jeszcze dwie cechy AI, które prawdopodobnie jeszcze przez dłuższy czas będą kładły się cieniem nad tą metodą tworzenia treści:

 

  • Aktualność – najpopularniejsze dostępne algorytmy opierają się na danych sieciowych sięgających roku 2021, co oznacza, że nie sposób pisać z ich pomocą o wydarzeniach aktualnych, niedawnych, lub wciąż trwających. Łatwo to sprawdzić pytając jednego z chatbotów o niedawne wydarzenia na świecie. Wydaje się zatem, że jak dotąd dziennikarze zajmujący się bieżącymi wiadomościami mogą spać spokojnie. Oczywiście powstają nowe inkarnacje i modele AI, których ten problem nie będzie zapewne dotyczył.

  • Fact-checking – jak na razie nie istnieje AI, które poza tworzeniem tekstów jest w stanie weryfikować prawdziwość prezentowanych przez siebie informacji. Sami twórcy zastrzegają, że sztuczna inteligencja może podawać informacje oparte na stereotypach, uprzedzeniach i wymieszanych różnorodnych opiniach, z którymi model stykał się podczas nauki. Z tego powodu informacje o potencjalnie newralgicznym znaczeniu, zwłaszcza prawne, medyczne i techniczne, mogą być zupełnie lub częściowo nieprawdziwe, a nawet niebezpieczne, gdyby komuś przyszło do głowy stosować się do nich. Opiniowanie rzetelności kontentu nadal pozostaje domeną stricte ludzką i niewiele wskazuje, by miało się to w najbliższym czasie zmienić.

 

Poza powyższym, istnieją jeszcze pomniejsze problemy, takie jak brak indywidualnego stylu i niewłaściwe wzorce językowe powielane przez algorytm, a także jeden, być może największy, który jest rdzeniem wszystkich dotychczasowych rozważań.

 

 

Wpływ "sztucznego" kontentu na wyszukiwarki

 

 

Rozchwianie się pozycji wyszukiwania pod wpływem generowanych w dużych ilościach treściach przez AI to jeden z problemów, na który często zwracają uwagę eksperci SEO i SEM. Zagadnienie to jest wielowymiarowe, a poza tym niestety nie są jeszcze znane wszystkie szczegóły tego procesu i jego skutki długofalowe – pozostaje on po prostu cały czas w toku. Niejednoznaczne pozostają także zalecenia prezentowane przez samo Google. Z jednej strony wedle wskazówek dla pozycjonowania liczy się praktyczne doświadczenie, eksperckość, autorytet, zaufanie. Jednak jeśli chodzi o doświadczenie, z oczywistych względów AI jest wykluczone, a kwestia budowania autorytetu i zaufania pozostaje kwestią dyskusyjną. Wpływ na to będą miały też wymienione w powyższych akapitach trudności, z jakimi wciąż boryka się sztuczna inteligencja. Oczywiście treść, która pojawi się w wynikach wyszukiwania może odpowiadać potrzebom użytkowników, a Google nie będzie w takim wypadku zaniżać jej wyników, przynajmniej do czasu, gdy po aktualizacji algorytmów wyszukiwania staną się one z jej punktu widzenia mniej wartościowe.

 

Niestety wygoda i szybkość, jaką oferują generatory treści kuszą mniej lub bardziej uczciwych twórców, aby posiłkować się nimi podczas pracy. Być może w perspektywie kilku lub kilkunastu miesięcy wyszukiwarki zostaną zalane niskiej jakości, odtwórczymi, a co być może najgorsze, nieprawdziwymi treściami. Owszem, ich napływ do sieci był regularny nawet bez sztucznej inteligencji i kiepskiej jakości kontent był obecny w sieci od zawsze, jednak tym, co zmienia wszystko, jest skala tego zjawiska. Jeśli urośnie ona do rozmiarów wszechobecnego spamu, to z dużym prawdopodobieństwem Google wyda stosowną aktualizację aby ukrócić ten proceder. Istnieją ku temu wciąż rozwijane narzędzia, o których mowa poniżej.

 

 

Ogień zwalczać ogniem – identyfikacja treści AI przez… AI

 

 

Nawet jeśli treść AI nie jest jak na razie sama w sobie obiektem wykluczania przez wyszukiwarkę, to przy założeniu, że stanie się nadużywanym narzędziem do spamu, jest możliwe, że kolejne aktualizacje wprowadzane przez Google znacznie ograniczą widoczność takich treści. Sprawi to, że być może nawet kontent umiarkowanej jakości umieszczony w sieci na początku rewolucji AI, stanie się mniej widoczny z powodu źródła swojego pochodzenia. Jak jednak tekst sztucznej inteligencji jest wykrywany przez Google i inne strony internetowe? Jak sugeruje sam nagłówek, odpowiedzią na lawinowy przyrost tekstów AI będzie zapewne samo AI, oczywiście odpowiednio wytrenowane i skonfigurowane w tym celu.

 

Możliwość wykrywania tekstów pisanych przez chatboty wynika z samego sposobu ich generowania. Taka odwrócona inżynieria sprawia, że nie jest wielką trudnością wykryć nawet niewielką ilość stosowanych w tekście tzw. łańcuchów Markowa, czyli ciągów słów stworzonych na podstawie kalkulacji prawdopodobieństw wystąpienia każdej kolejnej frazy. Poza samym Google istnieją już serwisy, które nieodpłatnie są w stanie z dużym stopniem pewności stwierdzić czy podany tekst jest twórczością komputera, czy człowieka. Bezsprzecznie z czasem to zadanie stanie się trudniejsze, ale już teraz największe korporacje przeznaczają ogromne środki finansowe aby zapobiec katastrofie, jaką byłoby zachwianie się wyników wyszukiwania i utrata zaufania użytkowników.

 

 

Nie jest zatem nieprawdopodobnym scenariusz, przy którym dotychczasowe, jak i nowopowstałe treści stworzone przez sztuczną inteligencją będą spadały w wynikach wyszukiwania lub będą miały odpowiednią widoczną etykietę. Na ten moment, chociaż Google nie jest bezpośrednio zainteresowane pochodzeniem tekstu, to tekst generowany maszynowo ma duże zadatki by w perspektywie najbliższych miesięcy i lat znaleźć się na celowniku tego giganta wyszukiwarek. 

 

Nie można także zapomnieć, że także sami twórcy modeli AI zapowiadają możliwość umieszczenia w tekstach specyficznych "znaków wodnych" niewidocznych dla użytkownika, za to dla algorytmów wyszukujących "sztuczną" treść – jak najbardziej. Biorąc więc pod uwagę powyższe czynniki, należałoby z dużą dozą ostrożności podchodzić do szerokiego, a tym bardziej bezrefleksyjnego i masowego stosowania narzędzi AI do tworzenia treści. Może się to zemścić na pozycjonowaniu stron w niedalekiej nawet przyszłości.

 

 

Czy pisanie z AI się opłaca?

 

 

W kwestii kalkulacji zysków i strat wielu przedsiębiorców, agencji kreatywnych i marketingowych stoi przed pokusą stosowania AI do szybkiego i przede wszystkim taniego lub darmowego tworzenia treści. Jeśli chodzi o ChatGPT, pozostaje on, na razie, narzędziem darmowym, ale dalece niedoskonałym. Bardziej zaawansowane narzędzia do tworzenia kontentu wymagają już nakładu środków i wykupywania subskrypcji, gdyż dostępna darmowa treść ogranicza się w nich zwykle do kilku tysięcy wygenerowanych znaków. Niewykluczone, że nawet darmowe narzędzia ze względu na ich popularność staną się płatne, jednak istota opłacalności leży w tym wypadku gdzie indziej.

 

Chociaż porównanie kosztów między tekstami AI a zatrudnieniem copywritera do napisania treści będzie zwykle działało na korzyść tego pierwszego, to długofalowy zysk nie musi być całkiem oczywisty. Po pierwsze otwarta pozostaje kwestia traktowania tekstu AI przez Google w przyszłości, być może czasy, gdy darmowy kontent będzie przynosił jakiekolwiek zyski chyli się końcowi. Po drugie, kolejną, niewymienioną jeszcze słabością sztucznej inteligencji jest jej nieumiejętność odczytywania emocji.

 

Choć AI od dawna świetnie radzi sobie z odczytywanie wzorców zachowań konsumenckich, nie jest w stanie de facto stworzyć przekonujących, odwołujących się do doświadczeń i emocji treści. Takie właśnie teksty są nie tylko chętniej odwiedzane, ale także bardziej przekonujące. Świat emocji i uczuć pozostanie poza domeną AI jeszcze przez wiele lat, a prawdopodobnie nigdy nie osiągną poziomu ludzkiego.

 

 

Meandry praw autorskich

 

 

Prawa autorskie są tą dziedziną, która w kontekście kontentu tworzonego przez sztuczną inteligencję wywołuje najgorętsze dyskusje i budzi najwięcej możliwości. To także kolejny punkt na liście, który w przyszłości będzie mógł negatywnie wpływać na pozycjonowanie stron z zawartością generowaną automatycznie. Przede wszystkim może pojawić się pytanie o możliwość wytworzenia przez AI treści o charakterze plagiatu. Co prawda nie można tego całkowicie wykluczyć, wydaje się, że ten akurat zarzut nie grozi sztucznej inteligencji. Chociaż bazuje ona na gotowych sformułowaniach i, bardziej ogólnie, analizie języka naturalnego, nie można zapomnieć, że prawami autorskimi chroniona jest sama forma przedstawienia treści, a nie samo jej znacznie. Generatory tekstu nie powtarzają całych zdań, z którymi zetknęły się podczas procesu uczenia, zamiast tego tworzą unikalną treść, nawet jeśli wydaje się ona skrajnie odtwórcza i przedstawiona w nieciekawy sposób. Można bez problemu przetestować taki tekst programem antyplagiatowym i w przeważającej liczbie przypadków nie spotkać się z plagiatem, niemniej zdarza się, że tekst taki będzie niczym innym, niż parafrazą źródła.

 

Bardziej złożonym i trudnym do rozstrzygnięcia problemem jest kwestia tego, komu i w jakim zakresie przysługują prawa do tekstu stworzonego przez sztuczną inteligencję? Wedle prawa, tylko człowiek może być posiadaczem takich praw. Mogą pojawić się głosy, że to osoba, która obsługuje program jest mimo wszystko autorem. W końcu wymyśliła strukturę tekstu i być może słowa kluczowe, podała odpowiednie polecenie, tzw. prompt. Przejrzała i poprawiła tekst, sprawdziła prawdziwość informacji. Nie ona jednak sam tekst napisała, trudno temu zaprzeczyć. Czy w takim razie część praw należy się twórcom oprogramowania? A może twórcom tekstów, które były inspiracją dla AI? Jak w takim wypadku zainteresowane strony miałyby dochodzić swoich praw? Jest to temat wciąż otwarty i nastręczający wielu wątpliwości natury prawnej i etycznej.

 

 

Pozycjonowanie i jakość kontentu a jego odbiór przez użytkowników

 

 

Choć wiele zostało już napisane o jakości treści i jej pozycjonowaniu przez wyszukiwarki, to warto jeszcze przyjrzeć się kwestii tego, jaki wpływ mają te czynniki na komfort korzystania z internetu przez użytkowników, jest to bowiem system działający do pewnego stopnia w obie strony. Trzeba przyznać, że z perspektywy osoby korzystającej z sieci, nie zawsze ważne jest, czy treść, na którą natrafiamy była stworzona przez człowieka, czy przez maszynę. Proste wskazówki, pozwalające na rozwiązanie codziennych problemów muszą być przede wszystkim łatwo dostępne i skuteczne. Gorzej sprawa ma się, gdy wskazówki mają się odnieść do sfery uczuć, albo gdy szukamy opinii innych na temat danego produktu. Być może szukamy informacji na temat lokalnych wydarzeń nieznanych szerzej w kraju? Albo nasza sfera zainteresowań jest na tyle niszowa, że poza kilkoma wpisami ekspertów, internet milczy? Niestety tutaj również AI odsłania kolejne słabe strony, gdyż źle sobie radzi z tym zakresem tematów, często ma zaś problem z poprawną lokalizacją budowli i innych miejsc oraz orientacją w datach.

 

Tematem pokrewnym do sfery uczuciowej będą treści o możliwych konotacjach etycznych. Chociaż można wgrać pewne ograniczenia do algorytmów, on sam nie rozpoznaje tej płynnej i często niepisanej sfery życia człowieka, gdyż nie jest ona możliwa do zapisania w formacie cyfrowym. Wprowadza to spore ryzyko kolportowania treści zwyczajnie szkodliwych i niebezpiecznych. Podobnie ma się sprawa ze wspominanym już fact-checkingiem. Już przed popularyzacją narzędzi AI problem fake-newsów był trudny, a wręcz niemożliwy do okiełznania w przestrzeni internetowej. Niewychwycona przez człowieka fałszywa informacja, która zostanie "pochwycona" przez AI w trakcie nauki może być rozpowszechniana na niespotykaną dotąd skalę tym bardziej, gdy korzystać z niej będzie równolegle kilka modeli AI.

 

Osobnym zagadnieniem będzie społeczne podejście do treści generowanych przez AI, które mogą mieć dodatkowy wpływ także na jej pozycjonowanie:

 

  • Kwestie estetyczne tekstu – chociaż teksty pisane przez AI są dobrze sformatowane i w większości poprawne gramatycznie, to gdy chodzi o coś więcej niż sama informacja, czyli o przyjemność obcowania z tekstem, generator pozostanie zawsze w tyle za człowiekiem. Chociaż rzecz ma się podobnie, tak jak w przypadku grafiki, gdzie jest możliwe naśladowanie przez algorytm stylu sławnych malarzy, to nadal pozostanie to suchym odtwórstwem, bez pierwiastka innowacji i wyobraźni. Na obecnym etapie zdarza się nadal, że suchy i dość bezbarwny opis AI jest widoczny na pierwszy rzut oka.

  • Nieufność – widoczna jest nie tylko wśród osób słabo zaznajomionymi z nowinkami technologicznymi. Objawia się tym, że nawet dobre, pełne wartościowych informacji treści są mniej angażujące, gdyż, jak już wspominano, nie opierają się na doświadczeniu. Z innej strony, także osoby zlecające tworzenie treści, nawet tych niższej jakości, często zakazują stosowania generatorów tekstu i sprawdzają twórców pod tym kątem.

  • Język – rozwój AI opiera się przede wszystkim o język angielski i to w tym języku modele tworzenia treści uzyskują najlepsze rezultaty. Język polski jest znacznie trudniejszy w analizie – choćby ze względu na mnogość odmian słów. Mimo tego generatory treści tworzą ją także w naszym rodzimym języku, jest to jednak obarczone koniecznością każdorazowego tłumaczenia oryginału wytworzonego po angielsku. Efektem jest to, że teksty wyglądają dla polskich użytkowników zdecydowanie mniej naturalnie i nadal zauważalne są źle odmienione słowa lub niewłaściwie przetłumaczone słowa ze względu na nierozpoznanie przez AI kontekstu.

 

Wszystkie powyższe problemy, a także inne – pomniejsze i takie, które pojawią się z czasem, mają wpływ na wyniki wyszukiwania. Chociaż zdecydowanie wyszukiwarki nie różnicują jeszcze skąd pochodzi tekst, to wymienione zagadnienia mogą postawić zwłaszcza masowo produkowane z pomocą AI teksty na niekorzystnej pozycji.

 

 

Umiar najlepszym narzędziem twórcy treści

 

 

Wielu copywriterów i dziennikarzy w świetle opisywanej powyżej problematyki stoi w obliczu poważnych rozterek: czy warto korzystać z AI? Jakie będą konsekwencje wprowadzenia nowych aktualizacji dla wyszukiwarki? Czy AI odbierze pracę copywriterom i w internecie znajdziemy jedynie wygenerowane treści? Wydaje się, że najlepszym rozwiązaniem jest zachowanie umiaru w stosowaniu sztucznej inteligencji. Trudno zaprzeczyć, że to tani i szybki sposób na kontent, a pokusa jego używania dotyka wielu osób. Pozwala tworzyć od niskiej do średniej jakości teksty do pewnego stopnia zoptymalizowane pod wyszukiwarkę. Z miesiąca na miesiąc jest też rozwijana i radzi sobie z tymi zadaniami coraz lepiej.

 

Dlatego znaczna część osób związanych tworzeniem treści używa do pewnego stopnia chatbotów i innych generatorów. Nie ma w tym nic złego, dopóki nad wytworzonym tekstem prowadzony jest nadzór, korekta i przede wszystkim fact-checking. Nic nie stoi też przecież na przeszkodzie by łączyć stosowanie narzędzi wspomagających z tradycyjnym pisaniem. Taki kompromis będzie łączył wydajność AI z atutami tekstu tworzonego przez człowieka. Niestety mimo tego nie jest na ten moment możliwe stwierdzenie, czy nawet takie połowiczne stosowanie sztucznej inteligencji nie odbije się negatywnie na przyszłej pozycji tych prac w wyszukiwarce.

 

 

Podsumowanie

 

 

Mimo że niniejszy artykuł ma w dużym stopniu wydźwięk sceptyczny, trudno jest zaklinać rzeczywistość i udawać, że technologia AI nie ma wpływu na nasze życie codzienne. Na podstawie wymienionych problemów, z jakimi wciąż zmaga się sztuczna inteligencja oraz ludzie z niej korzystający, można wysnuć wniosek, że treści AI mogą w dużym stopniu zachwiać pozycją stron w wyszukiwarkach w przyszłości. Wiele zależy jednak od tego, w jakim kierunku i tempie technologia ta będzie się rozwijać, a także to, jaki stosunek do tych zmian będzie miało Google.

 

Sporo wskazuje jednak na to, że powstające regularnie programy wykrywające treść AI, jak i możliwości dawane nam na tym polu przez samych twórców algorytmów, mogą nam znacznie ułatwić kontrolę nad napływem tych treści do sieci. Jest to dobra wiadomość dla twórców kontentu, jej odbiorców, ale paradoksalnie także dla samego AI, które będzie mogło być wykorzystane w bardziej rozsądny i bezpieczny sposób. Niestety ostudzi to zapewne zapał niektórych mniej uczciwych twórców, którzy liczą obecnie na możliwość hurtowego tworzenia taniego kontentu AI. Pozostaje jednak mieć nadzieję, że wraz z rozwojem technologii, takie praktyki zostaną skutecznie zmarginalizowane.

Sprawdź naszą ofertę

Jedyni tacy

Czy jesteśmy jedyni? Tak. My się staramy żeby zrobić coś adekwatnie do wymogów. Nie dbamy tylko o swój interes ale także o to, by nasi klienci byli zadowoleni. Nie szukamy jednorazowych zleceń. Sztuką jest wykonać pracę tak, żeby każda ze stron była zadowolona. Czy drutujemy? Jak trzeba to tak. Jeśli projekt ma działać krótko to po co klient ma płacić za super kod, którego i tak nie widać. Trzeba robić dobrze tam, gdzie trzeba robić dobrze.