Remove crawler restriction.
authorRadek Czajka <rczajka@rczajka.pl>
Thu, 26 Mar 2020 09:58:12 +0000 (10:58 +0100)
committerRadek Czajka <rczajka@rczajka.pl>
Thu, 10 Sep 2020 12:15:10 +0000 (14:15 +0200)
src/catalogue/views.py
src/wolnelektury/utils.py

index 2ef0d3b..aeed403 100644 (file)
@@ -5,7 +5,6 @@ from collections import OrderedDict
 import random
 
 from django.conf import settings
-from django.http.response import HttpResponseForbidden
 from django.template.loader import render_to_string
 from django.shortcuts import get_object_or_404, render, redirect
 from django.http import HttpResponse, HttpResponseRedirect, Http404, HttpResponsePermanentRedirect
@@ -28,7 +27,6 @@ from catalogue.helpers import get_top_level_related_tags
 from catalogue.models import Book, Collection, Tag, Fragment
 from catalogue.utils import split_tags
 from catalogue.models.tag import prefetch_relations
-from wolnelektury.utils import is_crawler
 
 staff_required = user_passes_test(lambda user: user.is_staff)
 
@@ -224,9 +222,6 @@ def tagged_object_list(request, tags, list_type):
     except ResponseInstead as e:
         return e.response
 
-    if is_crawler(request) and len(tags) > 1:
-        return HttpResponseForbidden('address removed from crawling. check robots.txt')
-
     if list_type == 'gallery' and any(tag.category == 'set' for tag in tags):
         raise Http404
 
index b0b9726..15319a1 100644 (file)
@@ -159,17 +159,6 @@ def re_escape(s):
     return re.sub(r"[(){}\[\].*?|^$\\+-]", r"\\\g<0>", s)
 
 
-BOT_BITS = ['bot', 'slurp', 'spider', 'facebook', 'crawler', 'parser', 'http']
-
-
-def is_crawler(request):
-    user_agent = request.META.get('HTTP_USER_AGENT')
-    if not user_agent:
-        return True
-    user_agent = user_agent.lower()
-    return any(bot_bit in user_agent for bot_bit in BOT_BITS)
-
-
 def get_cached_render_key(instance, property_name, language=None):
     if language is None:
         language = get_language()