]> git.phdru.name Git - bookmarks_db.git/blob - doc/ChangeLog
Feat: Delete bookmarks
[bookmarks_db.git] / doc / ChangeLog
1 Version 5.0.0 (2023-??-??)
2
3    Python 3.
4
5    Report redirects and set URLs.
6
7    Delete URLs.
8
9    Remove BeautifulSoup.py (use globally installed).
10
11 Version 4.6.0 (2014-07-06)
12
13    Split simple robot: separate network operations and
14    URL handling/HTML parsing.
15
16    Change parse_html to parse strings, not files.
17
18    Split parse_html/__init__.py into __main__.py.
19
20    Adapt JSON storage to recent Mozilla export format.
21
22    Add ChangeLog.
23
24    Allow parameters in BKMK_* environment variables; for example,
25    BKMK_ROBOT=forking:subproc=urllib or
26    BKMK_STORAGE=json:filename=bookmarks_db.json.
27
28    Pass subproc parameter to the subprocess to allow different robots.
29
30    Add a new robot based on urllib2.
31
32 Version 4.5.6 (2014-01-14)
33
34    Remove absolute directory ~/lib to make it portable.
35
36 Version 4.5.5 (2013-12-05)
37
38    Parse <meta charset="...">.
39
40 Version 4.5.4 (2013-11-23)
41
42    Published through git/gitweb.
43
44 Version 4.5.3 (2013-07-26)
45
46    Minor tweak in Makefile.
47
48    Switched to git.
49
50 Version 4.5.2 (2012-09-24)
51
52    Removed svn:keywords.
53
54    Handle redirects with codes 303 and 307.
55
56    Fixed a bug in handling place: URIs (do not append '//').
57
58 Version 4.5.1 (2011-12-28).
59
60    Read/write mozilla-specific date/time format in json storage.
61
62 Version 4.5.0 (2011-12-18).
63
64    Encode international domain names with IDNA encoding.
65
66    Adapted to different Mozilla 'place' URIs.
67
68 Version 4.4.0 (2011-01-07).
69
70    Moved BeautifulSoup.py and subproc.py from Robots/ to the top-level
71    directory.
72
73    Moved parse_html.py and its submodules to a separate parse_html package.
74
75    Added statistics code to parse_html, got a statistics on parser
76    success/failrure rate, reordered parsers.
77
78    Removed old cruft.
79
80 Version 4.3.1 (2011-01-03).
81
82    Get favicon before HTML redirect (refresh).
83
84 Version 4.3.0 (2011-01-01).
85
86    Robots no longer have one global temporary file - there are at least two
87    (html and favicon), and in the future there will be more for asynchronous
88    robot(s) that would test many URLs in parallel.
89
90 Version 4.2.2.
91
92     Added HTML Parser based on lxml.
93
94 Version 4.2.1 (2010-08-12).
95
96    Added HTML Parser based on html5 library.
97
98 Version 4.2.0 (2010-08-11).
99
100    New storage: json; it allows to load and store Mozilla (Firefox) backup
101    files.
102
103 Version 4.1.2
104
105    Process http error 307 as a temporary redirect.
106
107 Version 4.1.1 (2008-03-10)
108
109    Catch and report all errors.
110
111    Consider application/xhtml+xml as HTML.
112
113    Better handling of exceptions while looking up the icon.
114
115    Recode HTML entities.
116
117    Always use utf-8 as the default encoding.
118
119 Version 4.1.0 (2008-01-14)
120
121    Parser for HTML based on BeautifulSoup.
122
123    Changed User-agent header: I saw a number of sites that forbid
124    "Mozilla compatible" browsers. Added a number of fake headers to pretend
125    this is a real web-browser - there are still stupid sites
126    that are trying to protect themselves from robots by analyzing headers.
127
128    Handle redirects while looking for the icon.
129
130    Handle float timeouts in HTML redirects.
131
132    Minimal required version of Python is 2.5 now.
133
134 Version 4.0.0 (2007-10-20)
135
136    Extended support for Mozilla: charset and icon in bookmarks.
137    Use the charset to add Accept-Charset header.
138    Retrieve favicon.ico (or whatever <link> points to) and store it.
139
140    The project celebrates 10th anniversary!
141
142 Version 3.4.1 (2005-01-29)
143
144    Updated to Python 2.4. Switched from CVS to Subversion.
145
146 Version 3.4.0 (2004-09-23)
147
148    Extended support for Mozilla: keywords in bookmarks.
149    Updated to m_lib version 1.2.
150
151 Version 3.3.2
152
153    parse_html.py can now recode unicode entities in titles.
154
155 Version 3.3.0
156
157    Required Python 2.2.
158
159    HTML parser. If the protocol is HTTP, and there is Content-Type header, and
160    content type is text/html, the object is parsed to extract its title; if
161    the Content-Type header has charset, or if the HTML has <META> with
162    charset, the title is converted from the given charset to the default
163    charset. The <HEADER> is also parsed to extract <META> tag with redirect,
164    if any.
165
166 Version 3.0
167
168    Complete rewrite from scratch. Created mechanism for pluggable storage
169    managers, writers (DB dumpers/exporters) and robots.