]> git.phdru.name Git - bookmarks_db.git/blob - doc/ChangeLog
9267bae315c8e5369541567184cd3424c45e83dd
[bookmarks_db.git] / doc / ChangeLog
1 Version 5.1.0 (2024-03-01)
2
3    Robot based on requests.
4
5 Version 5.0.0 (2023-11-22)
6
7    Python 3.
8
9    Report redirects and set URLs.
10
11    Delete URLs.
12
13    Remove BeautifulSoup.py (use globally installed).
14
15 Version 4.6.0 (2014-07-06)
16
17    Split simple robot: separate network operations and
18    URL handling/HTML parsing.
19
20    Change parse_html to parse strings, not files.
21
22    Split parse_html/__init__.py into __main__.py.
23
24    Adapt JSON storage to recent Mozilla export format.
25
26    Add ChangeLog.
27
28    Allow parameters in BKMK_* environment variables; for example,
29    BKMK_ROBOT=forking:subproc=urllib or
30    BKMK_STORAGE=json:filename=bookmarks_db.json.
31
32    Pass subproc parameter to the subprocess to allow different robots.
33
34    Add a new robot based on urllib2.
35
36 Version 4.5.6 (2014-01-14)
37
38    Remove absolute directory ~/lib to make it portable.
39
40 Version 4.5.5 (2013-12-05)
41
42    Parse <meta charset="...">.
43
44 Version 4.5.4 (2013-11-23)
45
46    Published through git/gitweb.
47
48 Version 4.5.3 (2013-07-26)
49
50    Minor tweak in Makefile.
51
52    Switched to git.
53
54 Version 4.5.2 (2012-09-24)
55
56    Removed svn:keywords.
57
58    Handle redirects with codes 303 and 307.
59
60    Fixed a bug in handling place: URIs (do not append '//').
61
62 Version 4.5.1 (2011-12-28).
63
64    Read/write mozilla-specific date/time format in json storage.
65
66 Version 4.5.0 (2011-12-18).
67
68    Encode international domain names with IDNA encoding.
69
70    Adapted to different Mozilla 'place' URIs.
71
72 Version 4.4.0 (2011-01-07).
73
74    Moved BeautifulSoup.py and subproc.py from Robots/ to the top-level
75    directory.
76
77    Moved parse_html.py and its submodules to a separate parse_html package.
78
79    Added statistics code to parse_html, got a statistics on parser
80    success/failrure rate, reordered parsers.
81
82    Removed old cruft.
83
84 Version 4.3.1 (2011-01-03).
85
86    Get favicon before HTML redirect (refresh).
87
88 Version 4.3.0 (2011-01-01).
89
90    Robots no longer have one global temporary file - there are at least two
91    (html and favicon), and in the future there will be more for asynchronous
92    robot(s) that would test many URLs in parallel.
93
94 Version 4.2.2.
95
96     Added HTML Parser based on lxml.
97
98 Version 4.2.1 (2010-08-12).
99
100    Added HTML Parser based on html5 library.
101
102 Version 4.2.0 (2010-08-11).
103
104    New storage: json; it allows to load and store Mozilla (Firefox) backup
105    files.
106
107 Version 4.1.2
108
109    Process http error 307 as a temporary redirect.
110
111 Version 4.1.1 (2008-03-10)
112
113    Catch and report all errors.
114
115    Consider application/xhtml+xml as HTML.
116
117    Better handling of exceptions while looking up the icon.
118
119    Recode HTML entities.
120
121    Always use utf-8 as the default encoding.
122
123 Version 4.1.0 (2008-01-14)
124
125    Parser for HTML based on BeautifulSoup.
126
127    Changed User-agent header: I saw a number of sites that forbid
128    "Mozilla compatible" browsers. Added a number of fake headers to pretend
129    this is a real web-browser - there are still stupid sites
130    that are trying to protect themselves from robots by analyzing headers.
131
132    Handle redirects while looking for the icon.
133
134    Handle float timeouts in HTML redirects.
135
136    Minimal required version of Python is 2.5 now.
137
138 Version 4.0.0 (2007-10-20)
139
140    Extended support for Mozilla: charset and icon in bookmarks.
141    Use the charset to add Accept-Charset header.
142    Retrieve favicon.ico (or whatever <link> points to) and store it.
143
144    The project celebrates 10th anniversary!
145
146 Version 3.4.1 (2005-01-29)
147
148    Updated to Python 2.4. Switched from CVS to Subversion.
149
150 Version 3.4.0 (2004-09-23)
151
152    Extended support for Mozilla: keywords in bookmarks.
153    Updated to m_lib version 1.2.
154
155 Version 3.3.2
156
157    parse_html.py can now recode unicode entities in titles.
158
159 Version 3.3.0
160
161    Required Python 2.2.
162
163    HTML parser. If the protocol is HTTP, and there is Content-Type header, and
164    content type is text/html, the object is parsed to extract its title; if
165    the Content-Type header has charset, or if the HTML has <META> with
166    charset, the title is converted from the given charset to the default
167    charset. The <HEADER> is also parsed to extract <META> tag with redirect,
168    if any.
169
170 Version 3.0
171
172    Complete rewrite from scratch. Created mechanism for pluggable storage
173    managers, writers (DB dumpers/exporters) and robots.