############################################################ ############################################################ ############################################################ ############################################################ ############################################################ ############################################################ ######### #################### ####### ########## ################## ########## ########## ################# ########### ########## ############### ############# ########### ############# ############### ########### ########### ################ ########### ######### ################## ########### ######## ################### ############ ##### ##################### ############ #### ####################### ############ ## ######################## ############# ########################## ############# ########################### ############# ############################# ############################################################ ############## VUODESTA 1992 ############################### ############################################################ ############################################################ # Crawlers that are kind enough to obey, but which we'd rather not have # unless they're feeding search engines. User-agent: UbiCrawler Disallow: / User-agent: DOC Disallow: / User-agent: Zao Disallow: / # Some bots are known to be trouble, particularly those designed to copy # entire sites. Please obey robots.txt. User-agent: sitecheck.internetseer.com Disallow: / User-agent: Zealbot Disallow: / User-agent: MSIECrawler Disallow: / User-agent: SiteSnagger Disallow: / User-agent: WebStripper Disallow: / User-agent: WebCopier Disallow: / User-agent: Fetch Disallow: / User-agent: Offline Explorer Disallow: / User-agent: Teleport Disallow: / User-agent: TeleportPro Disallow: / User-agent: WebZIP Disallow: / User-agent: linko Disallow: / User-agent: HTTrack Disallow: / User-agent: Microsoft.URL.Control Disallow: / User-agent: Xenu Disallow: / User-agent: larbin Disallow: / User-agent: libwww Disallow: / User-agent: ZyBORG Disallow: / User-agent: Download Ninja Disallow: / # Misbehaving: requests much too fast: User-agent: fast Disallow: / # # Sorry, wget in its recursive mode is a frequent problem. # Please read the man page and use it properly; there is a # --wait option you can use to set the delay between hits, # for instance. # User-agent: wget Disallow: / # # The 'grub' distributed client has been *very* poorly behaved. # User-agent: grub-client Disallow: / # # Doesn't follow robots.txt anyway, but... # User-agent: k2spider Disallow: / # # Hits many times per second, not acceptable # http://www.nameprotect.com/botinfo.html User-agent: NPBot Disallow: / # A capture bot, downloads gazillions of pages with no public benefit # http://www.webreaper.net/ User-agent: WebReaper Disallow: / User-agent: * Disallow: /fi/account/ Disallow: /fi/orders/ Disallow: /fi/tili/ Disallow: /fi/checkout/ Disallow: /fi/payment/ Disallow: /fi/unsubscribe/ Disallow: /ext/ Disallow: /api/ Disallow: /payment/ Disallow: /pimg/ Disallow: /resp-api/ Disallow: /unsubscribe/ # Block Superhaku of the old days Disallow: /fi/s$ Disallow: /fi/s? # These are probably unnecessary now that we have proper canonicals, but will # do no harm (although the product page urls will change in the future) User-agent: Googlebot # Disallow pages with only the product number Disallow: /fi/product/* Disallow: /fi/reviews/* # Allow the ones with more than that Allow: /fi/product/*/ Allow: /fi/reviews/*/ # Disallow outlet product modal and outlet search result pages Disallow: /fi/outlet/yksittaiskappaleet/* Disallow: /fi/outlet/yksittaiskappaleet? # Hint to robots where the sitemap is Sitemap: https://www.verkkokauppa.com/gsitemaps1/sitemap.xml