Как интегрировать карты сайта в django-oscar? - PullRequest
0 голосов
/ 05 июля 2019

Я хочу интегрировать файлы Sitemap для моего проекта oscar, и я использовал пакет django-sitemaps Я последовал за тем же, создал приложение под названием sitemaps-django, настроил views.py, sitemaps-django / pages / sitemaps.py, URLconf в основном файле urls.py

Views.py

from sitemaps_django.pages.sitemaps import PagesSitemap

def sitemap(request):
    sitemap = Sitemap(
        build_absolute_uri=request.build_absolute_uri,
    )

    # URLs can be added one-by-one. The only required argument
    # is the URL. All other arguments are keyword-only arguments.
    for p in Page.objects.active():
        url = p.get_absolute_url()
        sitemap.add(
            url,
            changefreq='weekly',
            priority=0.5,
            lastmod=p.modification_date,
            alternates={
                code: urljoin(domain, url)
                for code, domain in PAGE_DOMAINS[p.language].items()
            },
        )

    # Adding conventional Django sitemaps is supported. The
    # request argument is necessary because Django's sitemaps
    # depend on django.contrib.sites, resp. RequestSite.
    sitemap.add_django_sitemap(PagesSitemap, request=request)

    # You could get the serialized XML...
    # ... = sitemap.serialize([pretty_print=False])
    # ... or use the ``response`` helper to return a
    # ready-made ``HttpResponse``:
    return sitemap.response(
        # pretty_print is False by default
        pretty_print=settings.DEBUG,
    )

Sitemaps-Джанго / страницы / sitemaps.py

from django.urls import reverse_lazy
from django.conf.urls import url

urlpatterns = [
    url(r'^robots\.txt$', robots_txt(
        timeout=86400,
        sitemaps=[
            '/sitemap.xml',
            reverse_lazy('articles-sitemap'),
            ...,
        ],
    )),
]

urls.py

from django_sitemaps import robots_txt
from sitemaps_django.views import sitemap

urlpatterns = [
    url(r'^sitemap\.xml$', sitemap),
    url(r'^robots\.txt$', robots_txt(timeout=86400)),
    ...
]

Я получаю эту ошибку

url(r'^robots\.txt$', robots_txt(
NameError: name 'robots_txt' is not defined
...