tévék. Konzolok. Projektorok és tartozékok. Technológiák. Digitális TV

Mire használják a keresőmotorokat? Kereső motorok. Hogyan kell használni a keresőt

Megjelent egy új könyvünk „Tartalommarketing in a közösségi hálózatokon: Hogyan juthat el előfizetőinek fejébe, és hogyan szeretheti meg őket a márkájával.”

Hogyan működik a keresőmotor - alapelvek

Minden többé-kevésbé tapasztalt internet-felhasználó megtalálhatja a szükséges információkat egy kereső segítségével. A keresőmotorok működését azonban csak kevesen ismerik. Valóban, hogyan tudja a Google vagy a Yandex pillanatok alatt elemezni a felhasználó kérését, és kiválasztani a legmegfelelőbb webhelyeket az interneten jelen lévő több millió webprojekt közül?
A működési elv megértéséhez kereső motorok, meg kell ismerkednie az olyan fogalmakkal, mint az indexelés és az eredmények generálása. Valójában a keresőmotor szerepe abban rejlik, hogy elemzi a hálózaton meglévő webhelyeket, és olyan információkat ad ki, amelyek a legjobban megfelelnek az internetfelhasználó igényeinek.

Még több videó a csatornánkon – tanulja meg az internetes marketinget a SEMANTICA segítségével

Hogyan működik a keresőmotor - webhelyindexelés

Vannak keresőrobotok, amelyek folyamatosan „sétálnak” az interneten, és bizonyos gyakorisággal felkeresik az összes általuk ismert webhelyet. Miután felfedezték új anyag, a robot egyszerű szöveggel hozzáadja az index adatbázisához. Minden keresőmotornak van egyfajta „kártyaindexe”, amelyben az indexelt weboldalak másolatai tárolódnak.
Ha a robot felkeres egy korábban indexelt oldalt, összehasonlítja a meglévő példányt a dokumentum aktuális állapotával. Jelentős eltérések esetén (ha az anyagot frissítették) az index-adatbázis módosítása történik.

Tanács! Minél gyakrabban frissítenek egy webhelyet, annál gyakrabban keresik fel a keresőrobotok. Ez pozitív hatással lesz az indexelésre.

Releváns eredmények generálása

A keresőmotorok működésének pontos elveit szigorúan bizalmasan kezeljük. Ezenkívül az algoritmusokat folyamatosan fejlesztik és változtatják. Nyilvánvaló azonban, hogy a dokumentum témája a szemantika elemzése alapján kerül meghatározásra. A keresőmotorok a következő szempontokra figyelhetnek:

  • a kulcskérdések használatának gyakorisága;
  • az anyag tematikus megfelelése a webhely fő témájának;
  • a kulcsmondatok szinonimáinak jelenléte;
  • kulcsok jelenléte a címekben, metacímkékben stb.

A keresők természetesen nem csak a szöveg minőségét veszik figyelembe, hanem sok egyéb paramétert is. Ami számít, az a webhely megbízhatósága, a domain kora és a hivatkozásbázis állapota. BAN BEN Utóbbi időben nagyon fontos szerzett viselkedési tényezők (felhasználói aktivitás - megtekintett oldalak száma, megjegyzések stb.).

Hogyan működnek a keresőmotorok – a válasz a kérdésre

A beírt keresési lekérdezés alapján a rendszer elemzi az indexelt anyagokat. Ezután a robot linkeket generál olyan webhelyekre, amelyek a legjobban megfelelnek a felhasználó kérésének. A közelmúltban néhány változtatás történt a kereső működésében. Mostantól a robotok a felhasználói preferenciák figyelembevételével generálnak keresési eredményeket.
Magyarázzuk tovább konkrét példa: két felhasználó van, akik közül az egyik érdeklődik kulináris receptek, a másik pedig gyakran rendel gyorséttermi ételeket otthonra. Ezek a felhasználók beírhatják ugyanazt a „finom pizza” kifejezést, de a keresőmotor különböző oldalakra mutató hivatkozásokat biztosít számukra. Az első megkapja a pizza készítésének receptjeit, a második pedig azoknak az éttermeknek a címét, amelyek ezen étel kiszállítására szakosodtak.

Definíció szerint az internetes keresőmotor egy információkereső rendszer, amely segít abban, hogy információt találjunk világháló. Ez megkönnyíti a globális információcserét. De az internet egy strukturálatlan adatbázis. Exponenciálisan növekszik, és az információk hatalmas tárházává vált. Az interneten információk keresése nehéz feladat. Szükség van egy eszközre az óceáni információk kezelésére, szűrésére és visszakeresésére. A kereső ezt a célt szolgálja.

Hogyan működik a kereső?

Az internetes keresőmotorok olyan motorok, amelyek információkat keresnek és lekérnek az interneten. A legtöbbjük bejáró indexelő architektúrát használ. Ezek a pályamoduljaiktól függenek. A lánctalpasokat pókoknak is nevezik kis programok akik a weben böngésznek.

A feltérképező robotok felkeresik az URL-ek kezdeti készletét. Kibányászzák a feltérképezett oldalakon megjelenő URL-eket, és elküldik ezeket az információkat a bejáróvezérlő modulnak. A bejáró eldönti, hogy mely oldalakat keresse fel legközelebb, és megadja ezeket az URL-eket a bejáróknak.

A különböző keresőmotorok által lefedett témák az általuk használt algoritmusoktól függően változnak. Egyes keresőmotorok úgy vannak programozva, hogy egy adott témájú webhelyeken keressenek, míg mások feltérképező robotjai a lehető legtöbb helyet felkereshetik.

Az indexelő modul minden meglátogatott oldalról információkat nyer ki, és beírja az URL-t az adatbázisba. Ez egy hatalmas keresési táblázatot eredményez az információs oldalakra mutató URL-ek listájával. A táblázat a feltérképezés során lefedett oldalakat mutatja.

Az elemző modul egy másik fontos része a keresőmotor architektúrának. Létrehoz egy hasznossági indexet. Az index segédprogram hozzáférést biztosít adott hosszúságú oldalakhoz, vagy bizonyos számú képet tartalmazó oldalakhoz.

A feltérképezési és indexelési folyamat során a kereső eltárolja az általa letöltött oldalakat. Átmenetileg az oldaltárolóban tárolódnak. A keresőmotorok gyorsítótárat tartanak fenn az általuk meglátogatott oldalakról, hogy felgyorsítsák a már meglátogatott oldalak visszakeresését.

A keresőmotor lekérdező modulja kulcsszavak formájában fogadja a keresési lekérdezéseket a felhasználóktól. A rangsoroló modul rendezi az eredményeket.

A bejáróindexelő architektúrának számos változata van. Változnak az elosztott keresőmotor-architektúrában. Ezek az architektúrák gyűjtőkből és brókerekből állnak. A gyűjtők indexelési információkat gyűjtenek a webszerverekről, míg a brókerek biztosítják az indexelő motort és a lekérdező felületet. A brókerek a gyűjtőktől és más brókerektől kapott információk alapján indexelik a frissítést. Tudják szűrni az információkat. Manapság sok keresőmotor használja ezt a fajta architektúrát.

Keresőmotorok és oldal rangsorolása

Amikor létrehozunk egy lekérdezést egy keresőben, az eredmények meghatározott sorrendben jelennek meg. A legtöbben hajlamosak a felső oldalakat meglátogatni, és figyelmen kívül hagyni az alsókat. Ennek az az oka, hogy úgy gondoljuk, hogy az első néhány oldal relevánsabb a lekérdezésünk szempontjából. Tehát mindenkit érdekel, hogy oldala a keresőmotorok első tíz találata között szerepeljen.

A kereső lekérdező felületén felsorolt ​​szavak a következők kulcsszavakat, amelyeket a keresőkben kértek. Ezek a keresett kulcsszavakhoz kapcsolódó oldalak listája. A folyamat során a keresőmotorok lekérik azokat az oldalakat, amelyeken gyakran előfordulnak ezek a kulcsszavak. Kapcsolatokat keresnek a kulcsszavak között. A kulcsszavak elhelyezése is számít, csakúgy, mint az ezeket tartalmazó oldalak rangsorolása. Az oldalcímekben vagy URL-ekben megjelenő kulcsszavak nagyobb súlyt kapnak. Azok az oldalak, amelyek linkjei mutatnak rájuk, még népszerűbbé teszik őket. Ha sok más webhely hivatkozik egy oldalra, az értékesnek és relevánsabbnak tűnik.

Van egy rangsorolási algoritmus, amelyet minden keresőmotor használ. Az algoritmus egy számítógépes képlet, amelyet arra terveztek, hogy releváns oldalakat biztosítson a felhasználó kérésére. Mindegyik keresőmotornak eltérő rangsorolási algoritmusa lehet, amely elemzi a motor adatbázisában lévő oldalakat, hogy meghatározza a keresési lekérdezésekre adott releváns válaszokat. A keresőmotorok eltérően indexelik a különböző információkat. Ez azt jelenti, hogy egy adott lekérdezés két különböző keresőmotornak eltérő sorrendben adhat vissza oldalakat, vagy különböző oldalakat kereshet le. Egy webhely népszerűsége olyan tényezők, amelyek meghatározzák a relevanciát. Egy webhely átkattintási népszerűsége egy másik tényező, amely meghatározza a rangját. Ez a webhely látogatási gyakoriságának mértéke.

A webmesterek megpróbálják becsapni a keresőmotor-algoritmusokat, hogy javítsák webhelyük rangsorát a keresési eredmények között. Weboldalak feltöltése kulcsszavakkal vagy metacímkék használata a keresőmotorok rangsorolási stratégiáinak megtévesztésére. De a keresők elég okosak! Javítják az algoritmusaikat, hogy a webmesterek machinációi ne befolyásolják a keresési eredményeket.

Meg kell értenie, hogy még a lista első néhány utáni oldala is pontosan azt az információt tartalmazhatja, amit keresett. De biztos lehetsz benne, hogy a jó keresőmotorok mindig az első helyen jelenítik meg a releváns oldalakat!

Sziasztok kedves olvasók!

Jelenleg meglehetősen sok keresőmotor működik a globális internetes térben. Mindegyiknek megvan a maga algoritmusa a webhelyek indexeléséhez és rangsorolásához, de általában a keresőmotorok elve meglehetősen hasonló.

A keresőmotor működésének ismerete a gyorsan növekvő versennyel szemben jelentős előnyt jelent nemcsak kereskedelmi, hanem információs oldalak és blogok népszerűsítésekor is. Ez a tudás segít hatékony webhely-optimalizálási stratégia felépítésében, és kevesebb erőfeszítéssel eljutni a kiemelt lekérdezési csoportok keresési eredményeinek TOP-jához.

Hogyan működnek a keresők

Az optimalizáló munkájának célja, hogy a reklámozott oldalakat „igazítsa” a keresési algoritmusokhoz, és ezáltal segítse ezeket az oldalakat abban, hogy bizonyos lekérdezések esetén magas pozíciót érjenek el. Mielőtt azonban elkezdené a webhely vagy blog optimalizálásával kapcsolatos munkát, legalább felületesen meg kell értenie a keresőmotorok munkájának sajátosságait, hogy megértse, hogyan reagálhatnak az optimalizáló intézkedéseire.

Természetesen a keresési eredmények kialakításának részletes részletei olyan információk, amelyeket a keresőmotorok nem közölnek. A megfelelő kereséshez azonban elegendő a keresőmotorok működési elveinek ismerete.

Információkeresési módszerek

Ma két fő módszert alkalmaznak kereső motorok, különböznek az információkeresés megközelítésében.

  1. Algoritmus közvetlen keresés , amely magában foglalja a kereső adatbázisban tárolt dokumentumok mindegyikének egy kulcskifejezéssel (felhasználói lekérdezés) való párosítását, egy meglehetősen megbízható módszer, amely lehetővé teszi, hogy megtalálja az összes szükséges információ. Ennek a módszernek az a hátránya, hogy nagy adathalmazok keresésekor a válasz megtalálásához szükséges idő meglehetősen hosszú.
  2. Fordított indexelési algoritmus, amikor egy kulcskifejezést olyan dokumentumok listájához társítanak, amelyekben megtalálható, kényelmes, ha több tíz- és százmillió oldalt tartalmazó adatbázisokkal kommunikál. Ezzel a megközelítéssel a keresés nem minden dokumentumban történik, hanem csak speciális fájlokban, beleértve a webhelyoldalakon található szavak listáit. Egy ilyen listában minden szóhoz mellékeljük az előfordulási hely koordinátáit és egyéb paramétereket. Ezt a módszert használják ma olyan jól ismert keresőmotorok munkájában, mint a Yandex és a Google.

Itt kell megjegyezni, hogy amikor a felhasználó belép a böngésző keresősávjába, a keresés nem közvetlenül az interneten történik, hanem előre összegyűjtött, elmentett és aktuálisan releváns adatbázisokban, amelyek a keresőmotorok által feldolgozott információblokkokat (weboldalak) tartalmazzák. . A keresési eredmények gyors generálása lehetséges a fordított indexekkel való munkavégzésnek köszönhetően.

Az oldalak szöveges tartalmát (közvetlen indexeket) a keresőmotorok is elmentik, és a kérésnek legmegfelelőbb szövegrészletekből automatikusan töredékeket generálnak.

Matematikai rangsorolási modell

A keresés felgyorsítása és a felhasználó kérésének leginkább megfelelő eredmények előállításának folyamata egyszerűsítése érdekében egy bizonyos matematikai modellt használnak. Ennek a matematikai modellnek az a feladata, hogy a fordított indexek aktuális adatbázisában megtalálja a szükséges oldalakat, felmérje, hogy megfelelnek-e a kérésnek, és a relevancia szerint csökkenő sorrendben szétosztja azokat.

Nem elég egyszerűen megtalálni a kívánt kifejezést az oldalon. Ha a keresőmotorok határozzák meg, a dokumentum súlyát a felhasználói kéréshez viszonyítva számítják ki. Ezt a paramétert minden egyes kérésnél a következő adatok alapján számítjuk ki: az elemzett oldalon való használat gyakorisága és egy olyan együttható, amely azt tükrözi, hogy milyen ritkán jelenik meg ugyanaz a szó a kereső adatbázisában lévő más dokumentumokban. E két mennyiség szorzata a bizonylat súlyának felel meg.

Természetesen a bemutatott algoritmus nagyon leegyszerűsített, hiszen a rendelkezésünkre áll kereső motorok a számítások során számos további együttható is használatos, de a jelentés nem változik. Minél gyakrabban külön szó a felhasználó kérésére bármely dokumentumban előfordul, annál nagyobb az utóbbi súlya. Ebben az esetben az oldal szöveges tartalma spamnek minősül bizonyos határok túllépése esetén, amelyek kérésenként eltérőek.

A keresőmotor alapvető funkciói

Minden létező keresőrendszert úgy terveztek, hogy több fontos funkciókat: információk keresése, indexelése, minőségi értékelése, helyes rangsorolás és keresési eredmények generálása. Minden keresőmotor elsődleges feladata, hogy a keresett információt és a legpontosabb választ adja a felhasználónak egy konkrét kérésre.

Mivel a legtöbb felhasználónak fogalma sincs az internetes keresőmotorok működéséről, és nagyon korlátozott az a lehetőség, hogy megtanítsák a felhasználókat a „helyesen” keresésre (például keresési tippekkel), a fejlesztők kénytelenek javítani magát a keresést. Ez utóbbi olyan algoritmusok és keresőmotorok működési elveinek megalkotását jelenti, amelyek lehetővé teszik a keresett információ megtalálását, függetlenül attól, hogy a keresési lekérdezés mennyire „helyesen” van megfogalmazva.

Szkennelés

Ez nyomon követi a már indexelt dokumentumok változásait, és olyan új oldalakat keres, amelyek megjelenhetnek a keresési eredmények között felhasználói kérések esetén. A keresőmotorok segítségével vizsgálják az internetes forrásokat speciális programok pókoknak vagy keresőrobotoknak hívják.

Az internetes források vizsgálatát és az adatgyűjtést a keresőrobotok automatikusan végzik. Egy webhely első látogatása és a keresési adatbázisba való felvétele után a robotok rendszeresen felkeresik ezt az oldalt, hogy figyelemmel kísérjék és rögzítsék a tartalomban bekövetkezett változásokat.

Mivel az interneten nagy a fejlesztői források száma, és minden nap új oldalak jelennek meg, a leírt folyamat egy percre sem áll meg. Ez a működési elv a keresőmotorok az interneten lehetővé teszi számukra, hogy mindig naprakész információk az interneten elérhető webhelyekről és azok tartalmáról.

A keresőrobot fő feladata új adatok felkutatása és a keresőbe történő továbbítása további feldolgozás céljából.

Indexelés

A keresőmotor csak az adatbázisában megjelenített – más szóval indexelt – oldalakon képes adatokat találni. Ennél a lépésnél a keresőnek meg kell határoznia, hogy a talált információt be kell-e vinni az adatbázisba, és ha igen, akkor melyik részbe. Ez a folyamat szintén automatikusan történik.

Úgy gondolják, hogy a Google szinte minden interneten elérhető információt indexel, míg a Yandex szelektívebben és nem olyan gyorsan közelíti meg a tartalomindexelést. A Runet mindkét keresőóriása a felhasználó javára dolgozik, de a Google és a Yandex keresőmotorok általános működési elvei némileg eltérnek, mivel az egyes rendszereket alkotó egyedi szoftvermegoldásokon alapulnak.

A keresőmotorok közös pontja, hogy az összes új erőforrás indexelése tovább tart, mint a rendszer által ismert webhelyeken található új tartalom indexelése. A keresőmotorok által nagyon megbízható webhelyeken megjelenő információk szinte azonnal az indexbe kerülnek.

Körű

A rangsorolás az indexelt adatok jelentőségének keresőmotor-algoritmusok általi felmérése és az adott keresőre jellemző tényezők szerinti elrendezése. A kapott információkat a rendszer feldolgozza, hogy keresési eredményeket generáljon a felhasználói lekérdezések teljes körére. Az, hogy milyen információk jelennek meg fent és lent a keresési eredmények között, teljes mértékben a kiválasztott keresőmotor és annak algoritmusaitól függ.

A kereső adatbázisában található webhelyek témakörökre és lekérdezési csoportokra vannak osztva. Minden egyes kéréscsoporthoz egy előzetes kimenet jön létre, amely további kiigazításra kerül. A legtöbb webhely pozíciója minden SERP-frissítés után megváltozik – ez a rangsor frissítése naponta történik a Google-ban, és néhány naponta a Yandex keresésében.

Egy személy, mint asszisztens a szállítás minőségéért folytatott küzdelemben

A valóság az, hogy jelenleg még a legfejlettebb keresőmotorok, például a Yandex és a Google is emberi segítségre van szükségük ahhoz, hogy az elfogadott minőségi előírásoknak megfelelő eredményeket hozzanak létre. Ahol a keresési algoritmus nem működik elég jól, ott az eredményeket manuálisan módosítják – több szempont alapján értékelve az oldal tartalmát.

Speciálisan képzett emberek nagy serege különböző országok– a keresőmotorok moderátorainak (értékelőinek) – naponta óriási munkát kell végezniük, hogy ellenőrizzék, hogy a weboldalak megfelelnek-e a felhasználói kéréseknek, kiszűrve a találatokat a spamekből és a tiltott tartalmakból (szövegek, képek, videók). Az értékelők munkája tisztább keresési eredményeket tesz lehetővé, és hozzájárul az öntanuló keresőalgoritmusok továbbfejlesztéséhez.

Következtetés

Az Internet fejlődésével, a tartalommegjelenítés szabványainak és formáinak fokozatos változásával a keresés szemlélete is megváltozik, javulnak az információk indexelési, rangsorolási folyamatai, az alkalmazott algoritmusok, új rangsoroló tényezők jelennek meg. Mindez lehetővé teszi, hogy a keresőmotorok a legjobb minőségű, a felhasználói kéréseknek megfelelő eredményeket generáljanak, ugyanakkor megnehezítik a webmesterek és a weboldal népszerűsítésében részt vevő szakemberek életét.

A cikk alatti megjegyzésekben felkérem Önt, hogy beszéljen arról, hogy a fő RuNet keresőmotorok közül melyik - a Yandex vagy a Google - az Ön véleménye szerint működik jobban, jobb keresést biztosítva a felhasználónak, és miért.

Miért kell tudnia egy marketingszakembernek? alapelvek Keresőoptimalizáció? Ez egyszerű: szerves forgalom kiváló forrása a bejövő áramlásnak célközönség vállalati webhelyére, sőt céloldalaira is.

Ismerje meg a SEO témájú oktatási bejegyzések sorozatát.

Mi az a kereső?

A keresőmotor dokumentumok (tartalom) nagy adatbázisa. A keresőrobotok különböző típusú tartalmakat térképeznek fel és indexelnek, és ezek a mentett dokumentumok kerülnek rangsorolásra a keresésben.

Valójában a Yandex egy „pillanatfelvétel” a Runetről (Törökországról és néhány angol nyelvű webhelyről is), a Google pedig a globális internet.

A keresési index egy olyan adatstruktúra, amely információkat tartalmaz a dokumentumokról és a kulcsszavak helyéről.

A keresőmotorok működési elve szerint hasonlóak egymáshoz, a különbségek a rangsorolási képletekben rejlenek (oldalak sorrendje a keresési eredmények között), amelyek a gépi tanulás.

Naponta több millió felhasználó küld le kérdéseket a keresőmotoroknak.

"Írj absztraktot":

"Megvesz":

De leginkább az érdekli őket...

Hogyan működik a kereső?

A gyors válaszok érdekében a keresési architektúrát két részre osztották:

  • alap keresés,
  • metakeresés.

Alapvető keresés

Az alapkeresés egy olyan program, amely az index saját részében keres, és minden olyan dokumentumot biztosít, amely megfelel a lekérdezésnek.

A Metasearch olyan program, amely feldolgozza a keresési lekérdezést, meghatározza a felhasználó regionálisságát, és ha a lekérdezés népszerű, akkor kész keresési opciót állít elő, ha pedig új a lekérdezés, akkor kiválaszt egy alapkeresést és parancsot ad ki a dokumentumok kiválasztására. , majd gépi tanulást használ a talált dokumentumok rangsorolására és a felhasználó rendelkezésére bocsátására.

A keresési lekérdezések osztályozása

Ahhoz, hogy releváns választ adjon a felhasználónak, a kereső először megpróbálja megérteni, mire van szüksége konkrétan. A keresési lekérdezés elemzése és a felhasználó elemzése párhuzamosan történik.

A keresési lekérdezések elemzése a következő paraméterek szerint történik:

  • Hossz;
  • meghatározás;
  • népszerűség;
  • versenyképesség;
  • szintaxis;
  • földrajz.

Kérelem típusa:

  • navigáció;
  • információs;
  • tranzakciós;
  • multimédia;
  • Tábornok;
  • hivatalos

A lekérdezés elemzése és osztályozása után egy rangsoroló függvény kerül kiválasztásra.

A kéréstípusok kijelölése a bizalmas információ a javasolt lehetőségek pedig a keresőoptimalizálással foglalkozó szakemberek találgatásai.

Ha a felhasználó általános lekérdezést tesz fel, a keresőmotor visszatér különböző típusok dokumentumokat. És meg kell értened, hogy az oldal kereskedelmi oldalának népszerűsítésével a TOP 10-ben általános kérésre nem a 10 hely valamelyikére, hanem a helyek számára jelentkezel.
kereskedelmi oldalakra, amit a rangsorolási képlet emel ki. Ezért kisebb a valószínűsége annak, hogy az ilyen lekérdezéseknél az első helyre kerüljön.

A gépi tanulás MatrixNet a Yandex által 2009-ben bevezetett algoritmus, amely bizonyos lekérdezések esetén kiválaszt egy függvényt a dokumentumok rangsorolására.

A MatrixNet nem csak a Yandex keresésében, hanem tudományos célokra is használható. Például az Európai Nukleáris Kutatóközpontban ritka eseményekre használják nagy kötetek adatok (a Higgs-bozon keresése).

A rangsorolási képlet hatékonyságának értékeléséhez szükséges elsődleges adatokat az értékelő osztály gyűjti össze. Speciálisan képzett emberekről van szó, akik egy kísérleti képlet alapján a következő kritériumok szerint értékelik a helyszínek mintáját.

A helyszín minőségének értékelése

Vital - hivatalos weboldal (Sberbank, LPgenerator). Keresési lekérdezés megfelel a hivatalos webhelynek, a közösségi hálózatok csoportjainak, a hiteles forrásokról szóló információknak.

Hasznos (5-ös értékelés) - egy webhely, amely kérésre kiterjedt információkat nyújt.

Példa - kérés: transzparens szövet.

A „hasznos” besorolású webhelynek a következő információkat kell tartalmaznia:

  • mi az a transzparens szövet;
  • specifikációk;
  • fényképek;
  • fajták;
  • árlista;
  • valami más.

Példák a felül található lekérdezésekre:

Releváns+ (4. pont) – Ez a pontszám azt jelenti, hogy az oldal releváns a keresési lekérdezés szempontjából.

Releváns - (3. pontszám) - Az oldal nem pontosan egyezik a keresési lekérdezéssel.

Tegyük fel, hogy a „Guardians of the Galaxy sessions” lekérdezés egy filmről szóló oldalt jelenít meg munkamenetek nélkül, egy korábbi munkamenet oldalát vagy egy előzetes oldalt a YouTube-on.

Irreleváns (pontszám 2) - az oldal nem egyezik a kéréssel.
Példa: a szálloda neve egy másik szálloda nevét jeleníti meg.

Egy általános vagy információs kérés forrásának népszerűsítéséhez létre kell hoznia egy oldalt, amely megfelel a „hasznos” besorolásnak.

Az egyértelmű lekérdezésekhez elegendő a „releváns+” minősítés.

A relevanciát az oldal szöveges és hivatkozási megfeleltetésével érik el a keresési lekérdezéseknek.

következtetéseket

  1. Nem minden lekérdezés kerülhet kereskedelmi céloldalra;
  2. Nem minden információigénylés használható fel egy kereskedelmi webhely reklámozására;
  3. Általános kérés reklámozásakor hozzon létre egy hasznos oldalt.

Gyakori oka annak, hogy egy webhely nem kerül az első helyre, hogy a hirdetett oldal tartalma nem egyezik a keresési lekérdezéssel.

Erről a következő cikkben fogunk beszélni: „Az alapvető webhelyoptimalizálás ellenőrző listája”.

Sokan szeretnének a TOP-ba kerülni, de nem mindenki érti a keresők működését. 2017 fordulójára pedig még szigorodtak a keresőmotorok weboldalaival szemben támasztott követelmények (további részletek a cikkben). Ezért ahhoz, hogy folyamatosan a csúcson legyen, először legalább meg kell értenie a keresési algoritmusok működését.

Miután elolvasta ezt a cikket a végéig, megérti azokat az elveket, amelyeken a Yandex és a Google munkája alapul, és egy kicsit többet megtudhat a levelezésről, a ramblerről és a bingről. Ugyanakkor nem térünk ki a weboldal rangsorolási tényezőire, mert... Ez egy nagyon terjedelmes anyag, amely külön kiadványt igényel.

Nos, vagy ha azt szeretné, hogy egy keresőmotor célja, célja vagy akár küldetése az, hogy a legpontosabb választ adjon a felhasználó kérésére a különböző forrásokra mutató linkek listájának formájában.

A webhelyek minőségi listájának létrehozása érdekében a keresőmotor adatbázist hoz létre. Vagyis ha a webhelyed ill új oldal a webhelyet nem indexeli a Yandex vagy a Google, ami azt jelenti, hogy nem fognak szerepelni a keresési eredmények között. Az oldalak adatbázisát keresőrobotok alkotják, amelyek információkat szolgáltatnak a webhelyekről "főnök", és beírja az adatokat a nyilvántartásba. Például, ha regisztrálta webhelyét a vagy -ban, akkor ott információkat találhat arról, hogy webhelyének hány oldalát indexelte a keresőmotor.

Ezután a számos webhely oldaláról származó teljes adatregisztert bizonyos paraméterek szerint rangsorolják: régió, relevanciája a kérés szempontjából, az erőforrások népszerűsége, a tartalom minősége stb. Mint már mondtam, a rangsorolási tényezők teljes listáját egy külön kiadványban elemezzük. Az oldal népszerűsítése során a fő feladat ezen tényezők befolyásolása annak érdekében, hogy az oldal a TOP-ba kerüljön.

A keresőmotorok jellemzői és jellemzői 2018-ban

Mindannyian láttuk Google hirdetés arról, hogy egy keresőmotor hogyan lép egyenlőtlen csatába egy nagymamával, hogy megtalálja a legközelebbi gyógyszertárat. Mit is jelent ez? Hogy a keresőmotorok tanulnak, és hamarosan teljesen felhagynak a kulcsszavakkal, és csak jelentésekkel fognak dolgozni. Mert ez a fő feladatuk, nem az, hogy tetszőleges listát adjanak ki az oldalakról, hanem segítsenek a felhasználónak helyet, terméket vagy szolgáltatást találni.

Hazánkban a részesedés hang Keresés még mindig nagyon jelentéktelen, de az USA-ban körülbelül 50%-ot foglal el mobilforgalom. Ez azt jelenti, hogy ez a tendencia hamarosan Oroszországot is érinti. Ennek megfelelően az információigénylések száma növekedni fog ( hogyan, hol, hol) és előre nem jelezhető kérések, mert nem lesznek sztereotípiák és nem az a helyzet diktálja, amelyben az illető találja magát. Például áll egy kereszteződésben, és megkérdezi, hová forduljak, hogy találjak egy kávézót, ahol akár 300 rubel értékben is van üzleti lehetőség. Ez a Google.

Ami a szintén 2016 végén bevezetett Yandexet illeti. Ez egy olyan algoritmus, amely elsősorban jelentésekkel is működik.

Melyik kereső jobb, vagy miben különbözik a Yandex a Google-tól?

Saját felelősséggel személyes tapasztalat Azt mondhatom, hogy mindkét kereső jó a maga módján. A különbség persze az, hogy a Yandex egy orosz kereső, a Google pedig a világ legnagyobb keresője. Természetesen nem az érdekelt bennünket, hogy ezeknek a keresőmotoroknak az oldalai és az általuk nyújtott szolgáltatások között milyen külső különbségek vannak, hanem az, hogy hogyan generálnak keresési eredményeket, mivel ezek nagyon különböznek egymástól.

A Yandex nagyobb figyelmet fordít a regionális keresésre. Vagyis ha Vlagyivosztokban tartózkodik, és város vagy régió megadása nélkül ír be egy lekérdezést, például „ablakok”, akkor a Yandex először azoknak a vállalatoknak a webhelyeit jeleníti meg, amelyek Vlagyivosztokban találhatók, és valamilyen módon kapcsolódnak az ablakokhoz.

A Google számára fontosabb egy forrás népszerűsége és idézettsége (nem csak az Ön webhelyére mutató linkek), ez alapján dönti el, hogy az Ön webhelye hasznos-e.

Ami a többi keresőt illeti, akkor mail.ru a Google keresési eredményeinek héja, azaz. A mail.ru maga nem elemez semmit, hanem egyszerűen megmutatja, mit mutatna a Google. Rambler.ru Ugyanezen elv szerint ez egy Yandex shell.



Kapcsolódó kiadványok