]> git.phdru.name Git - bookmarks_db.git/blobdiff - doc/TODO
Rename `check_url.py` to `check_urls.py`
[bookmarks_db.git] / doc / TODO
index 453e1aede0706a92500804f2a253460d698eb26d..e294cbcd9b7c8a1fb911f66a8971d317482c86fa 100644 (file)
--- a/doc/TODO
+++ b/doc/TODO
@@ -1,20 +1,22 @@
-Handle redirects when downloading the icon.
+Robot based on PycURL.
+
+A program to publish bookmarks with icons.
+
+Configuration file to configure defaults - global defaults for the system
+and local defaults for subsystems.
 
 Fetch description from <META name="description" content="..."> and store it in
 bookmark.description if the description is empty. (How to update old
 descriptions without replacing my own comments?)
 
 
 Fetch description from <META name="description" content="..."> and store it in
 bookmark.description if the description is empty. (How to update old
 descriptions without replacing my own comments?)
 
-A program to publish bookmarks with icons.
-
 Parse (or interpret) downloaded file and get javascript redirects.
 
 More and better documentation.
 
 Merge "writers" to storage managers.
 Parse (or interpret) downloaded file and get javascript redirects.
 
 More and better documentation.
 
 Merge "writers" to storage managers.
-New storage managers: shelve, SQL, ZODB, MetaKit.
-More robots (URL checkers): threading, asyncore-based.
-Configuration file to configure defaults - global defaults for the system
-and local defaults for subsystems.
+New storage managers: SQL (SQLite?).
+More robots (URL checkers): asyncore-based;
+robot(s) that test many URLs in parallel.
 
 Ruleset-based mechanisms to filter out what types of URLs to check: checking
 based on URL schema, host, port, path, filename, extension, etc.
 
 Ruleset-based mechanisms to filter out what types of URLs to check: checking
 based on URL schema, host, port, path, filename, extension, etc.
@@ -27,3 +29,5 @@ Bigger database. Multiuser database. Robot should operates on a part of
 the DB.
 WWW-interface to the database. User should import/export/edit bookmarks,
 schedule robot run, etc.
 the DB.
 WWW-interface to the database. User should import/export/edit bookmarks,
 schedule robot run, etc.
+
+A program to collect and check links from a site.