Quantcast
Channel: Shopware 5 - Shopware Community Forum
Viewing all articles
Browse latest Browse all 274

robots.txt - Seiten für Google Indexierung sperren

$
0
0

Hey,

ich möchte gerne ein paar Seiten (wie z.B. Partnerformular) von Google ausschliessen.

Ist es richtig das ich dann nur folgendes in die robots.txt packe:

Disallow: /Partnerformular

 

Meine robots.txt würde dann wie folgt aussehen

{block name="frontend_robots_txt_user_agent"}
User-agent: *
{/block}

{block name="frontend_robots_txt_disallows"}
Disallow: {url controller=compare fullPath=false}

Disallow: {url controller=checkout fullPath=false}

Disallow: {url controller=register fullPath=false}

Disallow: {url controller=account fullPath=false}

Disallow: {url controller=note fullPath=false}

Disallow: {url controller=listing fullPath=false}

Disallow: {url controller=ticket fullPath=false}

Disallow: /Partnerformular
{/block}

 

{block name="frontend_robots_txt_allows"}
Allow: {url module=widgets controller=emotion fullPath=false}

Allow: {url controller=widgets fullPath=false}
{/block}

{block name="frontend_robots_txt_sitemap"}
Sitemap: {url controller=index}sitemap.xml
{/block}

{block name="frontend_robots_txt_sitemap_mobile"}
{if {config name=mobileSitemap}}
Sitemap: {url controller=index}sitemapMobile.xml
{/if}
{/block}

 

Kann mir vielleicht jemand sagen ob das richtig ist ? Ich bin etwas unsicher. Danke


Viewing all articles
Browse latest Browse all 274


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>