]> git.phdru.name Git - bookmarks_db.git/blobdiff - doc/TODO
TODO: Configuration file
[bookmarks_db.git] / doc / TODO
index a74684b467cee497e87c307fb42f3bbd859812b5..a673316fa342cfcfea3fa404427415e84c586565 100644 (file)
--- a/doc/TODO
+++ b/doc/TODO
@@ -1,23 +1,33 @@
-   Cleanup HTML before parsing  using BeautifulSoap or Tidy.
-   Parse downloaded file and get javascript redirects.
+Configuration file to configure defaults - global defaults for the system
+and local defaults for subsystems.
 
-   More and better documentation.
+A new robot based on PycURL.
 
-   Merge "writers" to storage managers.
-   New storage managers: shelve, SQL, ZODB, MetaKit.
-   More robots (URL checkers): threading, asyncore-based.
+HTML parser based on BeautifulSoup4.
 
-   Configuration file to configure defaults - global defaults for the system
-   and local defaults for subsystems.
+A program to publish bookmarks with icons.
 
-   Ruleset-based mechanisms to filter out what types of URLs to check: checking
-   based on URL schema, host, port, path, filename, extension, etc.
+Fetch description from <META name="description" content="..."> and store it in
+bookmark.description if the description is empty. (How to update old
+descriptions without replacing my own comments?)
 
-   Detailed reports on robot run - what's old, what's new, what has been moved,
-   errors, etc.
-   WWW-interface to the report.
+Parse (or interpret) downloaded file and get javascript redirects.
 
-   Bigger database. Multiuser database. Robot should operates on a part of
-   the DB.
-   WWW-interface to the database. User should import/export/edit bookmarks,
-   schedule robot run, etc.
+More and better documentation.
+
+Merge "writers" to storage managers.
+New storage managers: shelve, SQL, ZODB, MetaKit.
+More robots (URL checkers): threading, asyncore-based;
+robots that test many URLs in parallel.
+
+Ruleset-based mechanisms to filter out what types of URLs to check: checking
+based on URL schema, host, port, path, filename, extension, etc.
+
+Detailed reports on robot run - what's old, what's new, what has been moved,
+errors, etc.
+WWW-interface to the report.
+
+Bigger database. Multiuser database. Robot should operates on a part of
+the DB.
+WWW-interface to the database. User should import/export/edit bookmarks,
+schedule robot run, etc.