Googles hantering är kärnan till problemet


Googles lågprioritering av den skandinaviska marknaden har växt till ett galopperande problem.

Jag tänkte börja detta år med att förtydliga min syn enligt mina kommentarer till Nikke Lindqvists http://www.lindqvist.com/name-navigation-har-manga-domaner/ (som jag rekommenderar att läsas innan detta inlägg) och skriver det här för att hoppas att det slipper blossa upp mellan Sulo och mig igen (och för att slippa spamma ner Nikkes inlägg med fler novell-långa kommentarer). Och jag säger inte att jag har rätt och andra har fel – men det här är MIN syn på problemet.

Parkerade domäner är inget nytt som fenomen och något jag själv försökt peka på under flera års tid; exempelvis kan man kika på min presentation från Internetdagarna 2006
http://www.internetdagarna.se/arkiv/2006/52-domannamn/peterforsman.pdf

och sen även min presentation från Internetdagarna 2009, där jag även tar upp lite relevanta siffror

http://www.internetdagarna.se/wordpress/wp-content/uploads/Forsman_Domänmarknaden_inifrån.pdf

Och jag vill har följt Name Navigation på håll med intresse och jag kan inte se att deras omfattning eller storlek skulle ha förändrats speciellt mycket, inte heller det sätt de använder sina domäner.

Den enda skillnaden jag sett är att domänerna under 2005-början av 2006 låg i ”DomainSpa” (PPC-program) och sedan byttes till SEDO och för ca ett år sedan till Namedrive.

Så den stora skillnaden är nu att han stoppat den större delen av innehavet i sitt egenutvecklade program.

Jag kan förstå att ett vinstdrivande företag som Name Navigation gör detta!!
och jag ser också flera orsaker till det:
– naturligtvis för att kapa ett led (parkeringsprogrammet) och därmed tjäna mer per klick.

– men också pga av att vanliga PPC-sidor mycket sällan indexeras av Google
(tittar man på Namedrive.com så listas bla http://www.missvacation.com/ till försäljning där, men den är inte indexerad av Google)

– Det går heller inte att indexera/ optimera befintliga indexerade inlänkar på subdomäner i parkeringsprogrammen, på det sätt som NN nu gör.

– Jag kan gissa att innehavare som NN sett PPC-inkomsterna minska och kanske få domäner uteslutna, därför ser jag det som naturligt att de ser till mer inkomstbringande alternativ med annan modell och annan annonsleverantör, kan de sedan klippa ett led, så ökar ju även vinsten.

– Så vinsten för NN är alltså från att endast få ”type-in-trafik”, även få SERP-trafik (och ev. via gamla inlänkar).

För drygt ett år sedan (innan min tid på .SE börjat) så skrev jag:

”Beträffande ”takterna”, så vill jag poängtera att jag inte hyser något agg mot NN som verksamhet
– De registrerar lediga domänamn och dom gör det dessutom mycket bättre än de flesta andra som försöker.
Jag har heller inte sett någon tendens till att de skulle manipulera någonting i systemen,
utan gör vad många andra gör – garderar sig hos flera ombud, för störst möjlighet till att få domänerna de vill.”

http://www.dnzup.se/off-topic/271-name-navigation-till-salu-2.html#post389

Det är min uppfattning även idag!

Det är den ena sidan – Jag uppskattar den inte, men jag accepterar den.
Företag vill tjäna pengar – oavsett affärs- och intäktsmodell!

Jag har även sett snarlika lösningar av exempelvis Crystone´s nya typ av parkeringssidor
Som man kan se så finns vissa likheter – även här är Namedrive inblandade (PPC-program) och alltså Google som feeder, men med skillnad att de ligger som feed i frame och alltså en hybrid, eftersom dessa sidor går att optimera / indexera.

Förutom länkspammet som jag visade i kommentaren hos Nikke ( http://alturl.com/a3g6 ), så blir jag även lite rädd föra att göra följande sökning. (Eftersom jag ”dödade” digits.se och sålde domänen i januari förra året så skräms jag av att indexeringarna fortfarande ligger kvar.)

Och det är nu vi vänder på slanten och tittar på vad försämringen för domäninnehavare i parkeringsprogrammen lett till, eller Google´s inblandning. (Se även detta)

.SE´s VD kritiserade en del av fenomenet/tendensen i media redan 2007 ”Google gräver sin egen grav
och jag själv har gjort följande inlägg
https://www.internetsweden.se/skulle-google-doda-typos-think-again/

Själv tror jag inte att detta blir Googles grav, men sökresultaten blir mindre trovärdiga, ju mer de är möjliga att manipulera – det går inte att blunda för.

Men enligt min bestämda uppfattning så handlar detta INTE om något som har med hur .se-domäner frisläpps eller av vem och till vilken omfattning! (vilket verkar vara ett lättillgängligt ”populistiskt baseballträ att ta till och börja veva med”..för den oinsatte)

Det handlar istället om:
– Google har startat eget parkeringsprogram (”kanske” för att betala lägre till domäninnehavarna, men som ändå får mer i fickan då, Google skärt av ett led; parkeringsprogrammen).

– Google som annonsfeeder till parkeringsprogrammen sätter högre krav på vilka domäner som ligger i deras partners parkeringsprogram (mao riskerar domäner att ”inte komma till nytta” för innehavaren trots att de kanske har tusentals inlänkar).

– Google lågprioriterar städning av den skandinaviska marknaden vad gäller indexering (helt uppenbart).

– Google ”ser” inte heller när ägarbyten sker (pga av bla captcha) på samma sätt som för exempelvis .com och .net och kan därför inte ”nolla” domänen på samma sätt och därför går det för NN att ”återanvända” gamla länkar och fylla målsidorna med innehåll.

– Google släpper igenom nya typer av ”wildcardspam” för indexering, som Nikke presenterade i sitt inlägg (eller om det nu fungerat hela tiden, så finns det de som hittat kryphålen)

Min övertygelse är alltså inte att vi får en lösning på detta problem genom att reglera eller höja priserna på .se-domäner.

Jag ÄR pragmatiker och accepterar att det finns en mycket lång rad sätt som ett domännamn kan användas till, vissa tycker jag mindre om. Men jag önskar inte verka för att användingsområden av ett domännamn begränsas.

Det känns även som att det är på sin plats att peka på en text i .SE´s villkor, som alla innehavare kanske inte läst, men BÖR känna till:

Det är inte .SE:s uppgift att ensam avgöra om det finns skäl att avregistrera eller blockera en domän på grund av dess innehåll och hur den används.
.SE informerar dem som kommer till oss med önskemål om att få ett domännamn avregistrerat om vilka instanser som faktiskt arbetar med innehåll och användning av domännamn och hur de går tillväga för att kontakta dem, t.ex. Datainspektionen, Rikskriminalpolisen, operatörernas abuseavdelningar osv.

.SE kan själva systematiskt anmäla olämplig användning om vi ser sådan.

.SE kan också samarbeta med vissa utvalda myndigheter för tillfällen då ett domännamn kan behöva deaktiveras under myndighets utredning, som följd av ett formellt beslut och med tydliga riktlinjer med villkoren för ett sådant agerande.

.SE har sedan juni 2007 en överenskommelse med Polismyndigheten om att ansvarig tjänsteman med stöd av Rättegångsbalken 23§ 6 kap. kan begära utdrag ur registreringsuppgifter för
domännamn. Myndigheten ansvarar för att begäran är i enlighet med gällande lagstiftning eller annan författning. En blankett måste fyllas i och skrivas under innan .SE lämnar ut uppgifterna.

Ibland framförs missbruk av bl.a. DNS som motiv och grund för krav på avregistrering .SE har analyserat problemen från våra utgångspunkter och funnit att vi i nuläget inte behöver vidta
några särskilda åtgärder mot detta.

Det finns några viktiga orsaker som talar till vår fördel:
Vi gör inga snabba uppdateringar (dynamiskt). Ny zonfil läggs ut varannan timme.
Vi har en deaktiveringperiod för domäner som avregistreras, de kommer inte omedelbart ut på marknaden.
Vi har en lång TTL (24 timmar).
Vi tillåter inte domain tasting.
Vår whois-hantering begränsar möjligheterna.

http://www.iis.se/docs/villkor_och_regler_for_registrering_av_domannamn2.pdf

Problemet, för jag anser att det här ÄR ett problem för Svenskt internetanvändande, ligger (enligt mitt sätt att se på det) – inte hos .SE, utan hos Google. Samtidigt så kan jag anse att NN på ett ofrivilligt sätt för utvecklingen framåt, eftersom sökmotorerna tids nog måste förädla sina algoritmer och göra dem bättre för att den vanliga surfaren inte ska låta sig manipuleras av otillförlitliga sökresultat.

Skrivet av:
Peter Forsman / Internet Sweden

Related Articles

10 Comments

Avarage Rating:
  • 0 / 10
  • Nicklas , fredag 1 januari 2010 @ 15:46

    Läsvärt och tänkvärt!
    Gott nytt år!

  • internetsweden , fredag 1 januari 2010 @ 16:40

    Tack detsamma Nicklas!

  • Magnus Bråth , lördag 2 januari 2010 @ 1:32

    Jag måste hålla med om att mer reglering förmodligen inte löser några problem. Vanligtvis gör ju mer reglering det bara krångligare för dom som inte är proffs, även när vi hade starka krav gick det ju att greja sig domäner om man visste vad man höll på med så det drabbade bara högst uppriktiga privatpersoner. Jag lever nog hellre med NN och liknande då än att gå mot något mer komplicerat regelverk.

  • Johan / City Network , lördag 2 januari 2010 @ 14:32

    Läste precis hela Nikkes inlägg och kommentarer. Intressant!

    Kontentan är att det är mycket svårt att regerla vad som är bra och dåligt innehåll eller vem som vill tjäna pengar på vad. Det är upp till användarna att bedöma om det är värt något eller ej. Om det är utgångspunkten så är det väl så att enda anledningen till att de kan tjäna pengar är att de når viss status i sökningar på tex Google och därmed får viss trafik.

    Gillar starkt att .se gick till först till kvarn principen och tycker det är rätt idag och i framtiden. Låt oss inte riskera denna frihet genom att börja reglera där en grupp människor skall anses veta vad som är rätt eller fel på en viss domän.

    Skall något regleras så kanske det är hur dominant en sökmotor får bli? Speciellt en amerikansk som inte bryr sig om hur väl det fungerar i Sverige? Känns som vi alla numera utgår från en Google-värld när vi skapar något på internet. Många av ”konstigheterna” idag skulle inte vara värda mycket om man inte kunde manipulera hur Google ser på världen. Det kanske mer genuint hade varit ”bra” innehåll som dominerat och denna diksussion hade varit klart mindre intressant?

    För tydlighetens skull – jag tycker självklart inte att man skall reglera google eller andra sökmotorer. Jag hoppas däremot att Bing och andra kanske för större vikt framöver för att ge sökandet lite balans.

  • Magnus , lördag 2 januari 2010 @ 14:48

    Jag kan inte hplla med dig Johan, kan inte se att det skulle göra någon som helst skillnad att Bing fick större marknadsandel, den är ju om något än känsligare för spam. Nu är det väl snarast så att till och med spammare skiter i Bing åtm för svenska marknaden eftersom den är så liten här.

    Om man satsar på black hat seo för Bing och struntar i vad man får för resultat i Google (Google är enormt mycket känsligare och har klart vassare filter) så kan man komma undan med enormt fula saker som aldrig skulle fungera i en minut i Google. Ökad marknadsandel för Bing borde rimligtvis betyda fulare metoder alltså.

  • Johan / City Network , lördag 2 januari 2010 @ 18:13

    Håller med dig om att Bing har en bra bit att gå när det gäller filter och mycket annat. Jag hoppas dock att den fortsätter förbättras och en dag kan spela en roll även i Sverige.

    Menar dock mer att konkurrensen mellan olika sökmotorer skulle skapa en situation där de alla måste nå bästa resultat. Det i längden tror jag skapar en bättre situation som än mer återhåller sidor som utnyttjar situationen så att säga. Det råder ju fullständigt monopol när det gäller sök i Sverige och det brukar inte leda till en förbättrad situation. Det gör det enkelt att bara jobba med optimering och det ger mer och enklare värde åt dessa typer av sidor.

    Om vi tittar tillbaka på ursprungsproblemet – så menar jag att reglering inte är vägen att gå från .SEs sida.

  • Magnus , lördag 2 januari 2010 @ 18:18

    Jo helt klart skulle alla tjäna på konkurrens, det gäller ju i princip alla branscher. Problemet är väl att i dagsläget klarar inte Bing av att konkurrera med kvalitet så är det vad man är ute efter är det ju Google som gäller i alla fall (vet inte vad dom skulle kunna konkurrera med, känns ju inte som det finns utrymme för en lågprissökmotor precis).

    Och för grundfrågan, det är nog svårt att hitta en fungerande form av hårdare reglering.

  • Torkel R , måndag 4 januari 2010 @ 15:06

    Mycket bra skrivet! Tack för informationen.

  • Fredric , måndag 4 januari 2010 @ 23:22

    Förstår inte riktigt, vad är problemet? och på vilket sätt är det ett galopperande problem?

  • internetsweden , måndag 4 januari 2010 @ 23:46

    @Fredric – Jag anser att det är ett STORT problem att relevansen i sökresultaten minskar och blir sämre med uppblandning av indexerade skräpsidor – gör inte du?

    Jag har haft uppfattningen att Google eftersträvat att visa så bra SERP utifrån sökfras som möjligt – men jag kan förstås ha fått denna sökmotorgigants intention om bakfoten..
    //Peter

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *