Home/Search Engine/Search Engine Strategies London 2008: verslag van dag 3 Search Engine Strategies London 2008: verslag van dag 3 Een verslag van de laatste dag van Search Engine Strategies London 2008 door het team van bSeen. 2008-02-26Comment De derde en laatste dag van ons verblijf in London. Vandaag is het programma iets rustiger. We zijn begonnen om 9u30 en de laatste sessie eindigde om 16u30. 9.30u. – 10.30u. Er waren telkens drie sessies: - Meet the crawlers (Google, MSN en Ask waren aanwezig) - Creating compelling ads (hoe krijg je maximaal clicks en vooral kwalitatieve clicks) - Redefining the customer (wat verwacht de surfer van vandaag) > redefining the customer werd gevolgd door Edwin en Marnik. Wat leerden we hier? - Surfers willen zich betrokken kunnen voelen online. - Er is een generatie groeiende die een ‘welbepaalde boodschap’ –indien waardevol- heel snel kunnen en willen verspreiden. Dit via meerdere kanalen, zowel online als offline (blogs, communities, gsm, mail, mond-aan-mond, …). Ongeacht of deze boodschap positief of negatief is. - Surfers willen de controle behouden, dialoog kunnen voeren, meningen kunnen delen, … - Klanten beslissen waar, wanneer en hoeveel ze kopen. Ze willen die controle kunnen behouden. - Bloggers kunnen je merk maken of kraken. Zorg dat je communiceert op een zelfde niveau en op een relevante manier met hen. - 92% doet online onderzoek alvorens iets offline aan te kopen. - Vertel niet op je site dat je goed bent, toon dat je goed bent. - Maak je site ‘gebruikbaar’ en dit op een natuurlijke manier. > meet the crawlers werd gevolgd door Mark. Wat leerden we hier? Back to Basics. Hoe ervoor zorgen dat je site door de zoekmachines kan gespiderd worden. De grote spelers waren aanwezig: Google, MSN en ASK. Alle zoekmachines ondersteunen nu de xml sitemap. 1. Wat vertelt Google ons? Alles gebeurt met Webmaster Tools. Best 5 items raadplegen om een site optimaal gespiderd te krijgen. 1. Content Analysis 2. Herkennen van crawl errors 3. Wat googlebot ziet 4. Bepaal geographic targeting 5. Bepaal crawl rate 2. Ask Ask heeft het vooral over het belang van de robots.txt file. Daar moet gezorgd worden dat deze de zoekmachine toelaat waarbij we directories met de volgende parameters kunnen laten spideren of niet: Dissalow Crawl-delay Noarchive Noindex Nofollow Meer info kan gevonden worden in hun crawler faq. Belangrijk punt om te weten is dat men geen site kan submitten bij Ask. 3. MSN: MSN vertelde zo goed als niets interessants. Men had het vooral over hun Webmaster Central en over het feit dat je meer informatie op hun blog en forum kan vinden. Toch wel very basic. 11u. – 12u. Ook hier waren er drie sessies. We konden kiezen uit: - Dynamic website: beyond the basics (hoe dynamische websites SEO vriendelijk maken) - Search advertising forum (wat is nieuw binnen Google Adwords en MSN adCenter) - Site clinic (mensen kunnen vragen stellen over hun eigen site en landingspages) > dynamic websites: beyond the basics werd gevolgd door Mark en Edwin. Wat leerden we hier? Hoe zorg je ervoor dat je dynamische website toch mooi geïndexeerd wordt. Dat werd ons in deze sessie verteld. Waar hier vooral op gehamerd werd is het gebruik van url rewriting. Dynamische websites staan ervoor gekend om onleesbare url’s uit te spuwen die doorspekt zijn met speciale leestekens. Belangrijk: gebruik url rewriting om je dynamische url in een zoekmachine vriendelijke url om te zetten. Wat zijn de barrières die een dynamische website ervan weerhouden om geïnde Newsletter Schrijf je in voor onze newsletter en check al het nieuws over e-marketing, startups, digital agencies,… Enter your Email address