Kirjautuminen

Haku

Tehtävät

Keskustelu: Nettisivujen teko: Weebly ja hakukoneoptimointi

Sivun loppuun

AnRaLa [08.09.2019 20:22:46]

#

Hei!

Olen luonut verkkosivut selainpohjaisella Weebly-ohjelmalla. Sivut ovat olleet pian kaksi kuukautta netissä, eivätkä hakukoneet vieläkään löydä niitä. Palveluntarjoaja nosti kädet pystyyn ja neuvoi perehtymään aiheeseen hakukoneoptimointi. Mahdollisuus Weeblyn käyttöön on siis palveluntarjoajan kaupanpäällinen.

Ongelmaksi muodostuu se, että meta-tiedot ynnä muut syötetään suoraan sivutyökaluun. Mitään ei voi lisätä manuaalisesti koodin sekaan. Onni onnettomuudessa, ainakin seuraavat meta-tiedot löytyvät sivun lähdekoodista:

<meta name="description" content="Ajanmukaiset tilat juhlaan kuin juhlaan kraatterijärven rannalta!" />
<meta name="keywords" content="lappajärvi, karvala, länsiranta, nuorisoseura, kylätalo, juhlapaikka, häät, syntymäpäivät, hääjuhla, syntymäpäiväjuhla, ammattikeittiö, äänentoisto, järvi, ranta, laavu, grilli, kota, grillikota, makkaranpaisto, grillaus, uimaranta, venepaikka, kesäjuhla" />
<meta http-equiv="Content-Type" content="text/html; charset=utf-8" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0" />

Tästä huolimatta hakukoneet tarjoavat kaikkea muuta. Nähdäkseni ei voida puhua "optimoinnista", sillä sivusto puuttuu paitsi hakutulosten kärkipäästä, kokonaan listalta. Tarkistin Googlen työkalulla, että sivusto todella puuttuu firman tietokannasta.

Sivu on ilmeisesti mahdollista "pakkosyöttää" ainakin Googlen listoille. En onnistunut korjaamaan tilannetta Search Consolen keinoilla. Myönnettäköön, että DNS, TXT ja muut ovat itselleni täysin vieraita termejä. Mämmikoura asialla.

Tässä tapauksessa Weeblyn käyttö on tarkoituksenmukaista, vaikka työkaluissa omat rajoituksensa ovatkin. Ilmaisversioissa varsinkin. Joka tapauksessa, useimmat Google Search Consolen ratkaisut edellyttävät pääsyä ftp-tiedonsiirtoon. Joko pitäisi lisätä tiedosto päähakemistoon, tai muokata koodia jotenkin. Ainoat ftp-oikeudet ovat Weeblyn käytössä.

Eräs seikka on kiinnittänyt huomioni. Sivueditorin asetuksissa on valinta, jolla nimenomaan voi piilottaa sivuston hakukoneilta. Tätä on yritetty laittaa päälle ja pois siinä toivossa, että jokin solmuun mennyt bitti oikenisi. Ei vaikutusta. Mutta asialla saattaa olla merkitystä kokonaisuuden kannalta.

Ymmärrys loppuu. Olen touhunnut monen muunkin sivuston parissa, mutta tällaisen asian kanssa en ole joutunut aiemmin painimaan. Kaikki ovat löytyneet verkosta korkeintaan parissa päivässä julkaisusta - niin itse koodatut kuin valmiille pohjille tehdytkin.

Metabolix [08.09.2019 21:11:04]

#

Sivun löytymisen perusedellytys on tietenkin se, että hakukone päätyy sivulle. Osoitteen voi itse syöttää hakukoneelle sen työkaluista, tai hakukone voi löytää sivuston muualla olevien linkkien kautta. Päätyminen hakutuloksiin voi silti viedä aikaa.

HTML-sivun indeksoinnin voi estää kolmella tavalla: robots.txt, noindex, jokin muunlainen aivan erikseen hakukoneita estävä viritelmä. Jos mikään näistä ei ole esteenä, sivun pitäisi kyllä aikanaan löytyä. Jos asiat ovat omasta mielestäsi kunnossa, kannattaa opetella käyttämään niitä hakukoneen työkaluja, jotka mahdollisesti kertovat, miksei sivua löydy.

Sijoitus tuloksissa on monimutkainen asia. Vanhat metatagit voi siinä asiassa melko lailla unohtaa. Kaikkein tärkeintä on sivun tekstisisältö. Hakukone tekee omat päätelmänsä sivun hyödyllisyydestä mm. sisällön ja linkkien ja hakukoneelle päätyvien kävijätietojen perusteella.

Lebe80 [09.09.2019 08:55:32]

#

Nimenomaan tuo hakukoneen päätyminen sivustolle on tärkeää. Se tarvitsee linkin johonkin sivustolle, jossa hakukone ainakin käy aktiivisesti. Esim. tällä foorumilla on muutama tyyppi, jotka pistävät jokaiseen viestiinsä sivustonsa web-osoitteen, jolloin hakukoneet keskustelua indeksoidessaan myös heidän sivustollensa.

Metabolix [09.09.2019 17:01:22]

#

Lebe80 kirjoitti:

Esim. tällä foorumilla on muutama tyyppi, jotka pistävät jokaiseen viestiinsä sivustonsa web-osoitteen,

Onneksi on rel=nofollow...

AnRaLa [09.09.2019 18:32:36]

#

Muuta kautta ilmeni, että robots.txt saattaa olla vahvasti ongelman taustalla. Puoliammattilaisen mukaan homma menee näin: alla oleva tekstinpätkä pitää sisällään täyskiellon vierailla sivuilla. Siinä syy, mikseivät botit ole sinne koskaan eksyneet. Tämä vaikuttaa uskottavalta teorialta sikäli, kuin olen asiaa omin päin tutkinut. Käsittääkseni * Disallow:n tilalla kuuluisi seistä * Allow?

Sitemap: http://karvalannuorisoseura.fi/sitemap.xml User-agent: NerdyBot Disallow: / User-agent: * Disallow: /ajax/ Disallow: /apps/

Metabolix [09.09.2019 21:47:38]

#

Tuo nyt ei ole edes toimiva robots.txt, koska tuossa ovat tiedoston kaikki rivit jostain syystä peräkkäin. Onneksi netissä oleva tiedosto on järkevästi muotoiltu, ja olet vain kopioinut sen tänne jotenkin väärin.

Oikein rivitettynä tuosta robots.txt:stä selviää, että siinä kielletään vain polut /ajax/ ja /apps/ kaikilta, eli se ei vaikuta sivuston varsinaisten sivujen näkymiseen. (Tiedostossa ei ole kohtaa ”* Disallow”, vaan nämä ovat täysin eri riveillä tiedostossa. Myöskään ”* Disallow” ei olisi kelvollista robots.txt:n sisältöä eli se ei tarkoittaisi mitään. Puoliammattilaisen kannattaisi varmaan kerrata vähän robots.txt:n alkeita.)

Todellinen ongelma on varmaan se ensiksi mainitsemani, että sivustolle ei ole missään linkkejä. Ainakaan tuolla domainilla hakemalla ei löydy hakutuloksia, mikä jo kertoo jotain. Jos esimerkiksi kunnan nettisivuilla kerrottaisiin, että nuorisoseuran nettisivut ovat osoitteessa http://.../, varmaan hakukone alkaisi piankin löytää sivun. Muuten voi kestää kauan, ennen kuin hakukone kiinnostuu sivusta, vaikka syöttäisit sen hakukoneelle itse.

Joka tapauksessa on fiksua säätää Google Webmaster Tools käyttöön, niin näkee paremmin, mitä hakukonejätti tietää sivustosta. ”Ainoat ftp-oikeudet ovat Weeblyn käytössä” kuulostaa jotenkin virheelliseltä perustelulta: ei Weebly voi omia tunnuksia, kai sinulla on ne itselläsi tallessa ja voit ihan vapaasti käyttää niitä samaan aikaan jollain muulla FTP-ohjelmalla.

Toinen mahdollinen ongelma on, että palvelin ilmoittaa nettisivun tyypiksi text/html, johon sisältyy oletus, että merkistökoodaus olisi ISO-8859-1, mutta kuitenkin sitten tiedosto on oikeasti UTF-8-muodossa. Palvelimen asetuksia tulisi mielellään korjata (mahdollisesti esimerkiksi .htaccess-tiedoston avulla) niin, että html-tiedoston tyypiksi ilmoitettaisiin text/html; charset=UTF-8. Käytännössä sivu varmaan toimii tästä huolimatta.

The Alchemist [11.09.2019 10:49:39]

#

Metabolix kirjoitti:

Tuo nyt ei ole edes toimiva robots.txt, koska tuossa ovat tiedoston kaikki rivit jostain syystä peräkkäin. Onneksi netissä oleva tiedosto on järkevästi muotoiltu, ja olet vain kopioinut sen tänne jotenkin väärin.

Eikä ole. Se tarjoillaan HTML:nä mikä on selvästikin väärin, koska robots.txt:n pitää olla plaintextiä.

Metabolix kirjoitti:

Toinen mahdollinen ongelma on, että palvelin ilmoittaa nettisivun tyypiksi text/html, johon sisältyy oletus, että merkistökoodaus olisi ISO-8859-1, mutta kuitenkin sitten tiedosto on oikeasti UTF-8-muodossa.

Tällä ei ole väliä vaan silloin merkistö parsitaan HTML-dokumentin metatageista, missä on kyllä tämänkin saitin kohdalla ilmoitettu, että merkistö on UTF-8.

AnRaLa [18.09.2019 21:01:22]

#

Kiitokset kaikille. Luulen, että tämä alkaa vähitellen selviämään. Monta väärää käsitystä on saatu oikaistua.

Search Consolen vaatima tiedosto saatiin palvelimelle. Kirjautuminen ei jostakin syystä onnistu Filezillan kautta, mutta selaimella pääsi sisälle. Projekti nytkähti näiltä osin eteenpäin. Olen myös toimittanut muutamia linkityspyyntöjä.


Sivun alkuun

Vastaus

Aihe on jo aika vanha, joten et voi enää vastata siihen.

Tietoa sivustosta