]> git.phdru.name Git - bookmarks_db.git/blobdiff - doc/TODO
HTML parser based on BeautifulSoup4
[bookmarks_db.git] / doc / TODO
index 8893578ebf264cd2427b3923bceef0f44e105a3d..deb79cab111efc8b36cdb6fa0fe12560c1c461ab 100644 (file)
--- a/doc/TODO
+++ b/doc/TODO
@@ -1,16 +1,30 @@
-Store favicon.ico in attributes ala FF 2.0.
+Replace subproc.py with some IPC. Or update for Python 3.
 
-Cleanup HTML before parsing using BeautifulSoap or Tidy.
-Parse downloaded file and get javascript redirects.
+Python 3.
+
+Forbid external names to resolve to internal addresses (127.0.0.1, etc).
+
+Configuration file to configure defaults - global defaults for the system
+and local defaults for subsystems.
+
+Robot based on PycURL.
+
+Robot based on Scrapy.
+
+A program to publish bookmarks with icons.
+
+Fetch description from <META name="description" content="..."> and store it in
+bookmark.description if the description is empty. (How to update old
+descriptions without replacing my own comments?)
+
+Parse (or interpret) downloaded file and get javascript redirects.
 
 More and better documentation.
 
 Merge "writers" to storage managers.
 New storage managers: shelve, SQL, ZODB, MetaKit.
-More robots (URL checkers): threading, asyncore-based.
-
-Configuration file to configure defaults - global defaults for the system
-and local defaults for subsystems.
+More robots (URL checkers): threading, asyncore-based;
+robots that test many URLs in parallel.
 
 Ruleset-based mechanisms to filter out what types of URLs to check: checking
 based on URL schema, host, port, path, filename, extension, etc.
@@ -23,3 +37,5 @@ Bigger database. Multiuser database. Robot should operates on a part of
 the DB.
 WWW-interface to the database. User should import/export/edit bookmarks,
 schedule robot run, etc.
+
+A program to collect and check links from a site.