]> git.phdru.name Git - bookmarks_db.git/blobdiff - doc/TODO
Ignore temporary header file
[bookmarks_db.git] / doc / TODO
index 6ec0d5a7e49d3be14919745482c6d2652e38e9b3..e4fe65203b33b6bb9f1f6a9652b3e97312e13f82 100644 (file)
--- a/doc/TODO
+++ b/doc/TODO
@@ -1,14 +1,17 @@
-Change parse_html to parse strings, not files.
+HTML parser based on BeautifulSoup4. Bs3 for Python 2, bs4 for Py3.
 
-Split simple robot: separate network operations and URL handling.
+Replace subproc.py with some IPC. Or update for Python 3.
 
-Allow parameters in BKMK_ROBOT; for example, 'forking:urllib'.
+Python 3.
 
-A new robot based on urllib2.
+Forbid external names to resolve to internal addresses (127.0.0.1, etc).
 
-A new robot based on PycURL.
+Configuration file to configure defaults - global defaults for the system
+and local defaults for subsystems.
+
+Robot based on PycURL.
 
-HTML parser based on BeautifulSoup4.
+Robot based on Scrapy.
 
 A program to publish bookmarks with icons.
 
@@ -24,8 +27,6 @@ Merge "writers" to storage managers.
 New storage managers: shelve, SQL, ZODB, MetaKit.
 More robots (URL checkers): threading, asyncore-based;
 robots that test many URLs in parallel.
-Configuration file to configure defaults - global defaults for the system
-and local defaults for subsystems.
 
 Ruleset-based mechanisms to filter out what types of URLs to check: checking
 based on URL schema, host, port, path, filename, extension, etc.
@@ -38,3 +39,5 @@ Bigger database. Multiuser database. Robot should operates on a part of
 the DB.
 WWW-interface to the database. User should import/export/edit bookmarks,
 schedule robot run, etc.
+
+A program to collect and check links from a site.