]> git.phdru.name Git - bookmarks_db.git/blobdiff - doc/TODO
HTML parser based on BeautifulSoup4
[bookmarks_db.git] / doc / TODO
index 3d1e7e6a5a57b8e8c704533266317173c76799c2..deb79cab111efc8b36cdb6fa0fe12560c1c461ab 100644 (file)
--- a/doc/TODO
+++ b/doc/TODO
@@ -1,18 +1,30 @@
-Store icon, charset in bookmark's attributes.
-ICON="data:image/x-icon;base64,AAABAAIAEBAQAAAAAAAoAQAAJgAAACAgEAAAAAAA6AIAAE4BAAAoAAAAEAAAACAAAAABAAQAAAAAAMAAAAAAAAAAAAAAABAAAAAAAAAAAAAAAAAAgAAAgAAAAICAAIAAAACAAIAAgIAAAMDAwACAgIAAAAD/AAD/AAAA//8A/wAAAP8A/wD//wAA////AAAAAAAAAAAAAACZAJmZAAAAAAmQCZAAAAAACZAJkAAAAAAJkAmQAAAAAAmQCZAAAAAACZAJkAAAAAAAmZmQAAAAAACZmZAAAAAACZAJkAAAAAAJkAmQAAAAAAmQCZAAAAAACZAJkAAAAAAJkAmQAAAAAACZmZkAAAAAAAAAAAAA//////MP///5n///+Z////mf///5n///+Z////wf///8H///+Z////mf///5n///+Z////mf///8D////////ygAAAAgAAAAQAAAAAEABAAAAAAAgAIAAAAAAAAAAAAAEAAAAAAAAAAAAAAAAACAAACAAAAAgIAAgAAAAIAAgACAgAAAwMDAAICAgAAAAP8AAP8AAAD//wD/AAAA/wD/AP//AAD///8AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAmZkAAJmZmZkAAAAAAAAAAJmZkACZmZmZAAAAAAAAAAAAmZkAAJmZAAAAAAAAAAAAAJmZAACZmQAAAAAAAAAAAACZmQAAmZkAAAAAAAAAAAAAmZkAAJmZAAAAAAAAAAAAAJmZAACZmQAAAAAAAAAAAACZmQAAmZkAAAAAAAAAAAAAmZkAAJmZAAAAAAAAAAAAAJmZAACZmQAAAAAAAAAAAACZmQAAmZkAAAAAAAAAAAAACZmQAJmZAAAAAAAAAAAAAAmZmZmZmQAAAAAAAAAAAAAAmZmZmZkAAAAAAAAAAAAAAJmZmZmZAAAAAAAAAAAAAAmZmZmZmQAAAAAAAAAAAAAJmZAAmZkAAAAAAAAAAAAAmZkAAJmZAAAAAAAAAAAAAJmZAACZmQAAAAAAAAAAAACZmQAAmZkAAAAAAAAAAAAAmZkAAJmZAAAAAAAAAAAAAJmZAACZmQAAAAAAAAAAAACZmQAAmZkAAAAAAAAAAAAAmZkAAJmZAAAAAAAAAAAAAJmZAACZmQAAAAAAAAAAAAAJmZAAmZkAAAAAAAAAAAAACZmZmZmZmQAAAAAAAAAAAACZmZmZmZkAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAD///////////8PAP//BwD//8PD///Dw///w8P//8PD///Dw///w8P//8PD///Dw///w8P//+HD///gA///8AP///AD///gA///4cP//8PD///Dw///w8P//8PD///Dw///w8P//8PD///Dw///4cP//+AA///wAP///////////w=="
-LAST_CHARSET="windows-1251"
+Replace subproc.py with some IPC. Or update for Python 3.
 
-Cleanup HTML before parsing using BeautifulSoap or Tidy.
-Parse downloaded file and get javascript redirects.
+Python 3.
+
+Forbid external names to resolve to internal addresses (127.0.0.1, etc).
+
+Configuration file to configure defaults - global defaults for the system
+and local defaults for subsystems.
+
+Robot based on PycURL.
+
+Robot based on Scrapy.
+
+A program to publish bookmarks with icons.
+
+Fetch description from <META name="description" content="..."> and store it in
+bookmark.description if the description is empty. (How to update old
+descriptions without replacing my own comments?)
+
+Parse (or interpret) downloaded file and get javascript redirects.
 
 More and better documentation.
 
 Merge "writers" to storage managers.
 New storage managers: shelve, SQL, ZODB, MetaKit.
-More robots (URL checkers): threading, asyncore-based.
-
-Configuration file to configure defaults - global defaults for the system
-and local defaults for subsystems.
+More robots (URL checkers): threading, asyncore-based;
+robots that test many URLs in parallel.
 
 Ruleset-based mechanisms to filter out what types of URLs to check: checking
 based on URL schema, host, port, path, filename, extension, etc.
@@ -25,3 +37,5 @@ Bigger database. Multiuser database. Robot should operates on a part of
 the DB.
 WWW-interface to the database. User should import/export/edit bookmarks,
 schedule robot run, etc.
+
+A program to collect and check links from a site.