]> git.phdru.name Git - bookmarks_db.git/commitdiff
Style: Fix flake8 E261 at least two spaces before inline comment
authorOleg Broytman <phd@phdru.name>
Mon, 4 Sep 2023 16:52:48 +0000 (19:52 +0300)
committerOleg Broytman <phd@phdru.name>
Sun, 12 Nov 2023 10:18:49 +0000 (13:18 +0300)
19 files changed:
Robots/bkmk_rforking.py
Robots/bkmk_rforking_sub.py
Robots/bkmk_robot_base.py
Robots/bkmk_rurllib.py
Storage/bkmk_stflad.py
Writers/bkmk_wflad.py
bkmk-add.py
bkmk2db.py
bkmk_objects.py
bkmk_parser.py
check_title.py
check_urls.py
db2bkmk.py
parse_html/bkmk_parse_html.py
parse_html/bkmk_ph_beautifulsoup.py
parse_html/bkmk_ph_beautifulsoup4.py
parse_html/bkmk_ph_htmlparser.py
set-title-list.py
sort_db.py

index 2aa49e061347c1f5665ee9daf143dab643fc0162..6250af91603cfb8e6125b049e900f33c3be0e9ef 100644 (file)
@@ -47,7 +47,7 @@ def restart_subp(log):
 _set_subproc = True
 
 class robot_forking(Robot):
-    subproc = 'urllib2' # Default subprocess
+    subproc = 'urllib2'  # Default subprocess
 
     def check_url(self, bookmark):
         global _set_subproc
@@ -66,14 +66,14 @@ class robot_forking(Robot):
             os.environ['BKMK_ROBOT'] = subproc
 
         if not check_subp:
-            restart_subp(self.log) # Not restart, just start afresh
+            restart_subp(self.log)  # Not restart, just start afresh
 
         try:
             save_parent = bookmark.parent
             bookmark.parent = None
             subp_pipe.write_record(pickle.dumps(bookmark))
 
-            if check_subp.waitForPendingChar(60): # wait a minute
+            if check_subp.waitForPendingChar(60):  # wait a minute
                 new_b = pickle.loads(subp_pipe.read_record())
                 for attr in (
                     "error", "no_error",
@@ -103,4 +103,4 @@ class robot_forking(Robot):
         return 1
 
     def stop(self):
-        stop_subp(None) # Stop subprocess; do not log restarting
+        stop_subp(None)  # Stop subprocess; do not log restarting
index 9b25b5b98e5bd28d514c84c21f735ae5f9d77ae7..cb3ca5cddba0ef0329963fe56670b213c417188b 100755 (executable)
@@ -6,7 +6,7 @@ This file is a part of Bookmarks database and Internet robot.
 """
 
 __author__ = "Oleg Broytman <phd@phdru.name>"
-__copyright__ = "Copyright (C) 1999-2017 PhiloSoft Design"
+__copyright__ = "Copyright (C) 1999-2023 PhiloSoft Design"
 __license__ = "GNU GPL"
 
 __all__ = []
@@ -15,7 +15,7 @@ __all__ = []
 import sys, os
 
 lib_dir = os.path.normpath(os.path.join(os.path.dirname(sys.argv[0]), os.pardir))
-sys.path.append(lib_dir) # for bkmk_objects.py
+sys.path.append(lib_dir)  # for bkmk_objects.py
 
 try:
     import cPickle
index 395d4f8d6981a3a17e50bbe11986e8c30a325ac2..9c9d8c5823543bc442472274068da5acbf8417b0 100644 (file)
@@ -106,7 +106,7 @@ class robot_base(Robot):
             bookmark.last_modified = last_modified
 
             md5 = md5wrapper()
-            if url_type == "ftp": # Pass welcome message through MD5
+            if url_type == "ftp":  # Pass welcome message through MD5
                 md5.update(self.get_ftp_welcome())
 
             md5.update(content)
@@ -200,7 +200,7 @@ class robot_base(Robot):
                                 try:
                                     timeout = int(refresh.split(';')[0])
                                 except ValueError:
-                                    pass # float timeout
+                                    pass  # float timeout
                                 self.set_redirect(bookmark, "html", "%s (%s sec)" % (url, timeout))
 
                 except KeyError as key:
index 018896379ab4a4f2ca2bd59f10736bb975314777..2c32291898913b19f07cc8580c44a741b66f3079 100644 (file)
@@ -91,7 +91,7 @@ class robot_urllib(robot_base):
                 fname, headers = urllib.urlretrieve(url)
             finally:
                 if accept_charset and bookmark.charset:
-                    del urllib._urlopener.addheaders[-1] # Remove Accept-Charset
+                    del urllib._urlopener.addheaders[-1]  # Remove Accept-Charset
 
             infile = open(fname, 'rb')
             content = infile.read()
index 232229194a44aa8bbc8ddf1c552cf6626764504d..8965bbeda649afdc78e9b8382e31d61b0ac7dc05 100644 (file)
@@ -93,7 +93,7 @@ Charset: %s
         root_folder.comment = string.join(header[7:], '')[4:]
 
         save_level = 0
-        got_folder = 1 # Start as if we already have one folder
+        got_folder = 1  # Start as if we already have one folder
 
         for record in bookmarks_db:
             level = int(record["Level"])
@@ -109,7 +109,7 @@ Charset: %s
                 raise ValueError("new level (%d) too big; must be %d - %d" % (level, save_level-1, save_level+1))
 
             save_level = level
-            got_folder = record.has_key("Folder") # Test here to save got_folder for next loop
+            got_folder = record.has_key("Folder")  # Test here to save got_folder for next loop
 
             if record.has_key("URL"):
                 comment = record["Comment"].replace("\\n", '\n')
index ad84a53ac0566054b0e2036495badf9bd42f8ae3..64542bbdf929f262cc4d3af089de498a2fc8adf4 100644 (file)
@@ -17,7 +17,7 @@ from bkmk_objects import Writer
 def strftime(s):
     try:
         return time.strftime("%a %d %b %Y %T", time.localtime(int(s)))
-    except (TypeError, ValueError): # s is None or is already formatted
+    except (TypeError, ValueError):  # s is None or is already formatted
         return s
 
 
index df12452433c27f4d9c5539cc28f7d5186aeb0541..01ed29f24bfddbca711b2984146a35f2c578dfdd 100755 (executable)
@@ -6,7 +6,7 @@ This file is a part of Bookmarks database and Internet robot.
 """
 
 __author__ = "Oleg Broytman <phd@phdru.name>"
-__copyright__ = "Copyright (C) 2002-2017 PhiloSoft Design"
+__copyright__ = "Copyright (C) 2002-2023 PhiloSoft Design"
 __license__ = "GNU GPL"
 
 import sys, os, time
@@ -57,8 +57,8 @@ def run():
     global robot
     robot = robot(None)
 
-    if robot.check_url(bookmark): # get real title and last modified date
-        if title: # forced title
+    if robot.check_url(bookmark):  # get real title and last modified date
+        if title:  # forced title
             bookmark.name = title
         elif hasattr(bookmark, "real_title"):
             bookmark.name = bookmark.real_title
index 721371b3ced78092eac15042d3afc472e2d3d04e..0beea071a0b5ca8e5b0ed83b98ce778745108295 100755 (executable)
@@ -40,7 +40,7 @@ def run():
         filename = args[0]
 
     else:
-        filename = 'bookmarks.html' # good name both for DOS (bookmark.htm) and UNIX
+        filename = 'bookmarks.html'  # good name both for DOS (bookmark.htm) and UNIX
 
 
     if report_stats:
@@ -73,7 +73,7 @@ def run():
         if os.name == 'dos' or os.name == 'nt':
             dos_add = 1
         else:
-            dos_add = 0 # UNIX' and Mac's len() counts CR or LF correct
+            dos_add = 0  # UNIX' and Mac's len() counts CR or LF correct
 
 
     infile = open(filename, 'r')
index b1d20739a554c94f4d5cb0d2c52c17bf12f06fee..f313bd377811d11c9675915f020a436235dee17a 100644 (file)
@@ -29,7 +29,7 @@ class Folder(list):
         self.last_modified = last_modified
 
     def walk_depth(self, walker, level=0):
-        if hasattr(self, "header"): # root folder
+        if hasattr(self, "header"):  # root folder
             prune = 0
             walker.root_folder(self)
         else:
@@ -140,7 +140,7 @@ class Robot(object):
         self.log = log
 
     def stop(self):
-        pass # Nothing to do on cleanup
+        pass  # Nothing to do on cleanup
 
 
 # Helper class to make inverese links (nodes linked to their parent)
@@ -150,7 +150,7 @@ class InverseLinker(Walker):
 
     def start_folder(self, f, level):
         f.parent = self.parent_stack[-1]
-        self.parent_stack.append(f) # Push the folder onto the stack of parents
+        self.parent_stack.append(f)  # Push the folder onto the stack of parents
 
     def end_folder(self, f, level):
         del self.parent_stack[-1]   # Pop off the stack
index 329b4e52563aaf0edefed9bb84c8b139d166a2d4..00cfcd4c4ce298efc4d4da643b188b391230f325 100644 (file)
@@ -110,7 +110,7 @@ class BkmkParser(HTMLParser):
         folder = Folder(add_date, last_modified=last_modified)
         self.current_object = folder
         self.current_folder.append(folder)
-        self.folder_stack.append(folder) # push new folder
+        self.folder_stack.append(folder)  # push new folder
         self.current_folder = folder
         self.objects += 1
 
@@ -186,7 +186,7 @@ class BkmkParser(HTMLParser):
         debug("End folder")
         debug("Folder stack: %s" % dump_names(self.folder_stack))
         if self.folder_stack:
-            del self.folder_stack[-1] # pop last folder
+            del self.folder_stack[-1]  # pop last folder
             if self.folder_stack:
                 self.current_folder = self.folder_stack[-1]
             else:
index ffab6fa7d325b69cd787b15e5f28fde7681bcaeb..775679b227ada7d4bdfe0d7e32ab700e91f63630 100755 (executable)
@@ -10,7 +10,7 @@ from bkmk_objects import make_linear, quote_title, unquote_title
 
 
 __author__ = "Oleg Broytman <phd@phdru.name>"
-__copyright__ = "Copyright (C) 2002-2017 PhiloSoft Design"
+__copyright__ = "Copyright (C) 2002-2023 PhiloSoft Design"
 __license__ = "GNU GPL"
 
 
@@ -29,7 +29,7 @@ def run():
         pass
 
     if report_stats:
-        print("Broytman check_title, Copyright (C) 2002-2017 PhiloSoft Design")
+        print("Broytman check_title, Copyright (C) 2002-2023 PhiloSoft Design")
 
     if args:
         sys.stderr.write("check_title: too many arguments\n")
@@ -56,7 +56,7 @@ def run():
 
         if object.isBookmark:
             if hasattr(object, "moved") or hasattr(object, "error") \
-                  or object.href.startswith('place:'): # Firefox SmartBookmarks
+                  or object.href.startswith('place:'):  # Firefox SmartBookmarks
                 continue
 
             if hasattr(object, "real_title") and (object.real_title is not None):
index 000141ff0f65929fb525879e9c2f6ffcff46745d..8eba42c970ba27e2a7928d091775e27f882643d7 100755 (executable)
@@ -107,8 +107,8 @@ def run():
 
         if object.isBookmark:
             href = object.href
-            if (href.startswith('place:') # Firefox SmartBookmarks
-                    or '%s' in href): # Bookmark with keyword
+            if (href.startswith('place:')  # Firefox SmartBookmarks
+                    or '%s' in href):  # Bookmark with keyword
                 log("Skipped %s" % href)
                 continue
 
@@ -138,7 +138,7 @@ def run():
                     try:
                         size = size + int(object.size)
                     except (AttributeError, TypeError, ValueError):
-                        pass # Some object does not have a size :(
+                        pass  # Some object does not have a size :(
                 else:
                     log("Interrupted by user (^C)")
                     break
index 78618e712709404234e4b461c1a25a4866899023..da9bf527f8f86f1a0741fd494bd4a91539ac40ce 100755 (executable)
@@ -22,7 +22,7 @@ def run():
     output_filename = writer.filename
 
     transl = 0
-    transl_name = "" # dictionary translation; default is no translation
+    transl_name = ""  # dictionary translation; default is no translation
 
     for _opt, _arg in optlist:
         if _opt == '-s':
@@ -79,7 +79,7 @@ def run():
         else:
             raise ValueError("transl (%d) must be 1 or 2" % transl)
 
-        del transl_db # Save few bytes of memory
+        del transl_db  # Save few bytes of memory
 
         from bkmk_objects import Walker
         class Transl(Walker):
index af9395b0d8d735689288a02071a0e1aee80814de..5da37a98ab261f238f2e6cb78e29adeb826f0ebb 100644 (file)
@@ -5,7 +5,7 @@ This file is a part of Bookmarks database and Internet robot.
 """
 
 __author__ = "Oleg Broytman <phd@phdru.name>"
-__copyright__ = "Copyright (C) 1997-2017 PhiloSoft Design"
+__copyright__ = "Copyright (C) 1997-2023 PhiloSoft Design"
 __license__ = "GNU GPL"
 
 __all__ = ['parse_html', 'parse_filename', 'universal_charset']
@@ -14,7 +14,7 @@ __all__ = ['parse_html', 'parse_filename', 'universal_charset']
 import codecs
 
 universal_charset = "utf-8"
-DEFAULT_CHARSET = "cp1251" # Stupid default for Russian Cyrillic
+DEFAULT_CHARSET = "cp1251"  # Stupid default for Russian Cyrillic
 
 parsers = []
 
@@ -86,7 +86,7 @@ def recode_entities(title, charset):
             try:
                 part = unichr(int(part[2:-1])).encode(charset)
             except UnicodeEncodeError:
-                pass # Leave the entity as is
+                pass  # Leave the entity as is
         output.append(part)
 
     return ''.join(output)
@@ -101,7 +101,7 @@ def parse_html(html_text, charset=None, log=None):
 
     if charset:
         try:
-            codecs.lookup(charset) # In case of unknown charset...
+            codecs.lookup(charset)  # In case of unknown charset...
         except (ValueError, LookupError):
             charset = None         # ...try charset from HTML
 
index 99cff4f68f0ceebbe3ba0a18c3f035eb80f4c15f..1479f034255c4c5b4e53b872ea5b0c157b4a74c6 100644 (file)
@@ -16,7 +16,7 @@ from sgmllib import SGMLParser, SGMLParseError
 from BeautifulSoup import BeautifulSoup, CData
 from .bkmk_ph_util import HTMLParser
 
-DEFAULT_CHARSET = "cp1251" # Stupid default for Russian Cyrillic
+DEFAULT_CHARSET = "cp1251"  # Stupid default for Russian Cyrillic
 
 # http://groups.google.com/group/beautifulsoup/browse_thread/thread/69093cb0d3a3cf63
 class BadDeclParser(BeautifulSoup):
@@ -62,7 +62,7 @@ def parse_html(html_text, charset=None, log=None):
         return None
 
     _charset = root.originalEncoding
-    if _charset in ("ISO-8859-2", "windows-1252", "MacCyrillic"): # Replace default
+    if _charset in ("ISO-8859-2", "windows-1252", "MacCyrillic"):  # Replace default
         _charset = DEFAULT_CHARSET
         root = _parse_html(html_text, _charset)
         if root is None:
@@ -74,7 +74,7 @@ def parse_html(html_text, charset=None, log=None):
 
     head = html.head
     if head is None:
-        head = html # Some sites put TITLE in HTML without HEAD
+        head = html  # Some sites put TITLE in HTML without HEAD
 
     title = head.title
     if (title is None) and (html is not head):
@@ -104,7 +104,7 @@ def parse_html(html_text, charset=None, log=None):
                 __charset = meta_content.lower().split('charset=')[1].split(';')[0]
             else:
                 __charset = False
-        except IndexError: # No charset in the META Content-Type
+        except IndexError:  # No charset in the META Content-Type
             meta_charset = False
         else:
             meta_charset = _charset == __charset
index 10e06a97cd4fc4e25689cd3a92040878a5f2775a..b7f60ffd12033f787d6c4e6973324456948dce68 100644 (file)
@@ -5,7 +5,7 @@ This file is a part of Bookmarks database and Internet robot.
 """
 
 __author__ = "Oleg Broytman <phd@phdru.name>"
-__copyright__ = "Copyright (C) 2017 PhiloSoft Design"
+__copyright__ = "Copyright (C) 2017-2023 PhiloSoft Design"
 __license__ = "GNU GPL"
 
 __all__ = ['parse_html']
@@ -16,7 +16,7 @@ from bs4 import BeautifulSoup
 from .bkmk_ph_util import HTMLParser
 
 universal_charset = "utf-8"
-DEFAULT_CHARSET = "cp1251" # Stupid default for Russian Cyrillic
+DEFAULT_CHARSET = "cp1251"  # Stupid default for Russian Cyrillic
 
 def _parse_html(html_text, charset):
     try:
@@ -36,7 +36,7 @@ def parse_html(html_text, charset=None, log=None):
 
     head = html.head
     if head is None:
-        head = html # Some sites put TITLE in HTML without HEAD
+        head = html  # Some sites put TITLE in HTML without HEAD
 
     title = head.title
     if (title is None) and (html is not head):
@@ -66,7 +66,7 @@ def parse_html(html_text, charset=None, log=None):
                 __charset = meta_content.lower().split('charset=')[1].split(';')[0]
             else:
                 __charset = False
-        except IndexError: # No charset in the META Content-Type
+        except IndexError:  # No charset in the META Content-Type
             meta_charset = False
         else:
             meta_charset = _charset = __charset
index 70cba32d9073e2aa8f15389f69f8636eb0061b6f..05ad6584d47ec37f67ae5883181fdc6de5328880 100644 (file)
@@ -5,7 +5,7 @@ This file is a part of Bookmarks database and Internet robot.
 """
 
 __author__ = "Oleg Broytman <phd@phdru.name>"
-__copyright__ = "Copyright (C) 1997-2017 PhiloSoft Design"
+__copyright__ = "Copyright (C) 1997-2023 PhiloSoft Design"
 __license__ = "GNU GPL"
 
 __all__ = ['parse_html']
@@ -62,7 +62,7 @@ class HTMLParser(_HTMLParser):
         self.accumulator = ''
 
     def end_title(self):
-        if not self.title: # use only the first title
+        if not self.title:  # use only the first title
             self.title = self.accumulator
 
     def do_link(self, attrs):
index 6a4974238b4ea6b7de2856b30255782c376c7def..be96b53ea608c3d56b243d89c9fc52b3b7d3c08f 100755 (executable)
@@ -9,7 +9,7 @@ import sys
 
 
 __author__ = "Oleg Broytman <phd@phdru.name>"
-__copyright__ = "Copyright (C) 2003-2017 PhiloSoft Design"
+__copyright__ = "Copyright (C) 2003-2023 PhiloSoft Design"
 __license__ = "GNU GPL"
 
 
@@ -28,7 +28,7 @@ def run():
         pass
 
     if report_stats:
-        print("Broytman set-title-list, Copyright (C) 2003-2017 PhiloSoft Design")
+        print("Broytman set-title-list, Copyright (C) 2003-2023 PhiloSoft Design")
 
     if len(args) != 1:
         sys.stderr.write("Usage: set-title-list [-s] title_list_file\n")
@@ -42,17 +42,17 @@ def run():
 
     title_list_file = open(args[0], 'r')
     for line in title_list_file:
-        line = line[:-1] # strip trailing newline
+        line = line[:-1]  # strip trailing newline
         if URL is None:
             URL = line
 
         elif title is None:
             title = line
 
-        elif line: # the third line in every 3 lines must be empty
+        elif line:  # the third line in every 3 lines must be empty
             raise ValueError("line is not empty for URL `%s', title `%s': line `%s'" % (URL, title, line))
 
-        else: # We've got 3 lines - add new entry to the mapping
+        else:  # We've got 3 lines - add new entry to the mapping
             if titles_dict.has_key(URL):
                 if title != titles_dict[URL]:
                     raise ValueError("titles are not identical for URL `%s': `%s' != `%s'" % (URL, title, titles_dict[URL]))
index 03026e6db3501a05d7f0de92734881b0229f9d5c..4418973011c9b1444c2670fdf4e9eebf1efb8566 100755 (executable)
@@ -13,7 +13,7 @@ This file is a part of Bookmarks database and Internet robot.
 """
 
 __author__ = "Oleg Broytman <phd@phdru.name>"
-__copyright__ = "Copyright (C) 2000-2017 PhiloSoft Design"
+__copyright__ = "Copyright (C) 2000-2023 PhiloSoft Design"
 __license__ = "GNU GPL"
 
 import sys
@@ -89,7 +89,7 @@ def run():
     make_linear(root_folder)
 
     linear = root_folder.linear
-    del linear[0] # exclude root folder from sorting
+    del linear[0]  # exclude root folder from sorting
 
     by = SortBy(sort_by)
     linear.sort(by)