]> git.phdru.name Git - phdru.name/phdru.name.git/blobdiff - reindex_blog.py
Feat(blog): Encode tags
[phdru.name/phdru.name.git] / reindex_blog.py
index 3f10016e569d1d79daaaa2fc97b46150356501b9..0b7c2a6dd9fbf39af81f038f172c0b998470b84b 100755 (executable)
@@ -2,32 +2,20 @@
 # -*- coding: koi8-r -*-
 
 __author__ = "Oleg Broytman <phd@phdru.name>"
-__copyright__ = "Copyright (C) 2006-2012 PhiloSoft Design"
+__copyright__ = "Copyright (C) 2006-2024 PhiloSoft Design"
 
 import sys, os
-
-blog_data_root = sys.argv[1]
-blog_root = sys.argv[2]
-blog_filename = os.path.join(blog_data_root, "blog_dict.pickle")
-
 try:
-   import cPickle as pickle
+    from urllib.parse import quote
 except ImportError:
-   import pickle
+    from urllib import quote
 
 from Cheetah.Template import Template
+from Cheetah.compat import string_type
+from blog_db import blog_root, load_blog, save_blog
 
 
-# Load old blog
-
-try:
-   blog_file = open(blog_filename, "rb")
-except IOError:
-   old_blog = {}
-else:
-   old_blog = pickle.load(blog_file)
-   blog_file.close()
-
+old_blog = load_blog()
 
 # blog is a dictionary mapping
 # (year, month, day) => [list of (file, title, lead, tags)]
@@ -49,13 +37,14 @@ for dirpath, dirs, files in os.walk(blog_root):
          continue
       fullpath = os.path.join(dirpath, file)
       template = Template(file=fullpath)
-      title_parts = template.Title.split()
+      title_parts = template.Title.decode('utf-8').encode('koi8-r').split()
       title = ' '.join(title_parts[6:])
-      lead = template.Lead
+      lead = template.Lead.decode('utf-8').encode('koi8-r')
 
       tags = template.Tag
-      if isinstance(tags, basestring):
+      if isinstance(tags, string_type):
          tags = (tags,)
+      tags = [tag.decode('utf-8').encode('koi8-r') for tag in tags]
 
       if title:
          key = year, month, day = tuple(dirpath[len(blog_root):].split(os.sep)[1:])
@@ -79,26 +68,27 @@ for dirpath, dirs, files in os.walk(blog_root):
 
          file = file[:-len("tmpl")] + "html"
          key = (year, month, day, file)
-         bodies[key] = template.body()
+         body = template.body()
+         if isinstance(body, unicode):
+            body = body.encode('koi8-r')
+         bodies[key] = body
 
 # Need to save the blog?
-if blog <> old_blog:
-   blog_file = open(blog_filename, "wb")
-   pickle.dump(blog, blog_file, pickle.HIGHEST_PROTOCOL)
-   blog_file.close()
+if blog != old_blog:
+    save_blog(blog)
 
 # Localized month names
 
 import locale
 locale.setlocale(locale.LC_ALL, "ru_RU.KOI8-R")
-from calendar import _localized_day, _localized_month
+from calendar import _localized_month
 
 locale.setlocale(locale.LC_TIME, 'C')
 months_names_en = list(_localized_month('%B'))
 months_abbrs_en = list(_localized_month('%b'))
 
 locale.setlocale(locale.LC_TIME, "ru_RU.KOI8-R")
-#months_names_ru = list(_localized_month('%B'))
+# months_names_ru = list(_localized_month('%B'))
 
 months_names_ru = ['', "января", "февраля", "марта", "апреля", "мая", "июня",
    "июля", "августа", "сентября", "октября", "ноября", "декабря"
@@ -110,6 +100,8 @@ months_names_ru0 = ['', "
 
 from news import write_if_changed
 
+def encode_tag(tag):
+    return quote(tag.replace(' ', '_'))
 
 def write_template(level, year, month, day, titles, tags=None):
    path = [blog_root]
@@ -209,7 +201,7 @@ def write_template(level, year, month, day, titles, tags=None):
       href.append(file)
       href = '/'.join(href)
       if day[0] == '0': day = day[1:]
-      if save_date <> (year, month, day):
+      if save_date != (year, month, day):
          if level == 0:
             new_text.append('\n<h2>%s %s %s</h2>' % (day, months_names_ru[int(month)], year))
          else:
@@ -249,7 +241,8 @@ def write_template(level, year, month, day, titles, tags=None):
             first_tag = False
          else:
             new_text.append(' - ')
-         new_text.append("""<a href="tags/%s.html">%s (%d)</a>""" % (tag, tag, count))
+         new_text.append("""<a href="tags/%s.html">%s (%d)</a>""" % (
+             encode_tag(tag), tag, count))
       new_text.append('''
 </p>
 ''')
@@ -260,13 +253,20 @@ def write_template(level, year, month, day, titles, tags=None):
       new_text.append('''
 <p class="head">По годам:
 ''')
+
+      year_counts = {}
+      for year, month, day, file, title, lead in all_titles:
+         year_counts[year] = 0
+      for year, month, day, file, title, lead in all_titles:
+         year_counts[year] += 1
+
       first_year = True
       for year in years:
          if first_year:
             first_year = False
          else:
             new_text.append(' - ')
-         new_text.append('<a href="%s/">%s</a>' % (year, year))
+         new_text.append('<a href="%s/">%s (%d)</a>' % (year, year, year_counts[str(year)]))
       new_text.append('''
 </p>
 ''')
@@ -341,14 +341,36 @@ new_text = ["""\
 #def body_html
 <h1>Теги</h1>
 
-<p class="head">
+<p class="head small">
+Форма поиска позволяет искать сообщения в блоге, соответствующие выражению.
+Синтаксис выражения:</p>
+<ul class="small">
+    <li>Тег - если такой тег существует, произойдёт перенаправление на страницу тега.</li>
+    <li>Оператор '!' (NOT, not) - ищет записи, в которых нет этого тега.</li>
+    <li>Оператор '&amp;' (AND, and) - ищет записи, в которых есть оба тега.</li>
+    <li>Оператор '|' (OR, or) - ищет записи, в которых есть любые из тегов.</li>
+    <li>Приоритет операций стандартный: NOT &gt; AND &gt; OR. Скобки '()' позволяют объединять выражения.</li>
+</ul>
+<p class="small">
+Примеры выражений: linux - произойдёт перенаправление
+на страницу linux.html; linux&amp;!audio - искать записи в которых есть тег
+linux и нет тега audio; linux and not audio - то же самое.
+</p>
+
+<center>
+<form method=GET action="../../../cgi-bin/blog-ru/search-tags/search-tags.py">
+    <input type=text name=q>
+    <input type=submit name=submit value="Искать">
+</form>
+</center>
+
 <dl>
 """]
 
 for i, (count, tag, links) in enumerate(all_tags):
    new_text.append("""\
    <dt><a href="%s.html">%s (%d)</a></dt>
-""" % (tag, tag, count))
+""" % (encode_tag(tag), tag, count))
 
    first = all_tags[0][1]
    if i == 0:
@@ -394,7 +416,6 @@ for i, (count, tag, links) in enumerate(all_tags):
 #def body_html
 <h1>%s</h1>
 
-<p class="head">
 <ul>
 """ % tag)
 
@@ -411,15 +432,15 @@ for i, (count, tag, links) in enumerate(all_tags):
 
    tag_text.append("""\
 </ul>
-</p>
 #end def
 $phd_site.respond(self)
 """)
-   write_if_changed(os.path.join(blog_root, "tags", tag+".tmpl"), ''.join(tag_text))
+   write_if_changed(os.path.join(blog_root, "tags",
+                                 tag.replace(' ', '_') + ".tmpl"),
+                    ''.join(tag_text))
 
 new_text.append("""\
 </dl>
-</p>
 #end def
 $phd_site.respond(self)
 """)
@@ -471,6 +492,8 @@ class AbsURLHTMLParser(_HTMLParser):
       self.accumulator += '<a'
       for attrname, value in attrs:
          value = cgi.escape(value, True)
+         if isinstance(value, unicode):
+            value = value.encode('koi8-r')
          if attrname == 'href':
             self.accumulator += ' href="%s"' % urljoin(self.base, value)
          else:
@@ -480,6 +503,19 @@ class AbsURLHTMLParser(_HTMLParser):
    def end_a(self):
       self.accumulator += '</a>'
 
+   def start_img(self, attrs):
+      self.accumulator += '<img'
+      for attrname, value in attrs:
+         value = cgi.escape(value, True)
+         if attrname == 'src':
+            self.accumulator += ' src="%s"' % urljoin(self.base, value)
+         else:
+            self.accumulator += ' %s="%s"' % (attrname, value)
+      self.accumulator += '>'
+
+   def end_img(self):
+       pass
+
 def absolute_urls(body, base):
    parser = AbsURLHTMLParser(base)
 
@@ -501,13 +537,17 @@ from rss_20 import rss_20
 from news import NewsItem
 
 if blog_root:
-   baseURL = "http://phdru.name/%s/" % blog_root
+   blog_root_url = blog_root[
+        blog_root.find('/htdocs/phdru.name/') + len('/htdocs/phdru.name/'):]
+   baseURL = "https://phdru.name/%s/" % blog_root_url
 else:
-   baseURL = "http://phdru.name/"
+   baseURL = "https://phdru.name/"
 
 items = []
 for item in tuple(reversed(all_titles_tags))[:10]:
    year, month, day, file, title, lead, tags = item
+   lead = lead.decode('koi8-r').encode('utf-8')
+   title = title.decode('koi8-r').encode('utf-8')
    url_path = "%s/%s/%s/%s" % (year, month, day, file)
    item = NewsItem(
       "%s-%s-%s" % (year, month, day),
@@ -515,11 +555,20 @@ for item in tuple(reversed(all_titles_tags))[:10]:
       url_path)
    items.append(item)
    item.baseURL = baseURL
-   item.categoryList = tags
+   item.categoryList = [t.decode('koi8-r').encode('utf-8') for t in tags]
    body = bodies[(year, month, day, file)]
    body = absolute_urls(body, baseURL + url_path)
+   try:
+       body.decode('utf-8')
+   except UnicodeDecodeError:
+       body = body.decode('koi8-r').encode('utf-8')
    item.body = body
-   item.excerpt = get_first_p(body)
+   excerpt = get_first_p(body)
+   try:
+       excerpt.decode('utf-8')
+   except UnicodeDecodeError:
+       excerpt = excerpt.decode('koi8-r').encode('utf-8')
+   item.excerpt = excerpt
 
 namespace = {
    "title": "Oleg Broytman's blog",
@@ -536,23 +585,23 @@ namespace = {
 # For english dates
 locale.setlocale(locale.LC_TIME, 'C')
 
-atom_tmpl = str(atom_10(searchList=[namespace]))
+atom_tmpl = unicode(atom_10(searchList=[namespace])).encode('koi8-r')
 write_if_changed(os.path.join(blog_root, "atom_10.xml"), atom_tmpl)
-rss_tmpl = str(rss_20(searchList=[namespace]))
+rss_tmpl = unicode(rss_20(searchList=[namespace])).encode('koi8-r')
 write_if_changed(os.path.join(blog_root, "rss_20.xml"), rss_tmpl)
 
 for item in items:
     item.excerpt = None
 
-atom_tmpl = str(atom_10(searchList=[namespace]))
+atom_tmpl = unicode(atom_10(searchList=[namespace])).encode('koi8-r')
 write_if_changed(os.path.join(blog_root, "atom_10_titles.xml"), atom_tmpl)
-rss_tmpl = str(rss_20(searchList=[namespace]))
+rss_tmpl = unicode(rss_20(searchList=[namespace])).encode('koi8-r')
 write_if_changed(os.path.join(blog_root, "rss_20_titles.xml"), rss_tmpl)
 
 for item in items:
     item.content = item.body
 
-atom_tmpl = str(atom_10(searchList=[namespace]))
+atom_tmpl = unicode(atom_10(searchList=[namespace])).encode('koi8-r')
 write_if_changed(os.path.join(blog_root, "atom_10_full.xml"), atom_tmpl)
-rss_tmpl = str(rss_20(searchList=[namespace]))
+rss_tmpl = unicode(rss_20(searchList=[namespace])).encode('koi8-r')
 write_if_changed(os.path.join(blog_root, "rss_20_full.xml"), rss_tmpl)