]> git.phdru.name Git - bookmarks_db.git/blob - doc/ChangeLog
Version 5.3.0
[bookmarks_db.git] / doc / ChangeLog
1 Version 5.3.0 (2024-03-06)
2
3    Added get_url.py: a script to get one file from an URL.
4
5    Renamed set-URLs -> set-urls.
6
7 Version 5.2.5 (2024-03-05)
8
9    Feat(Robots/bkmk_rrequests): Ignore all problems with certificates.
10
11    Fix(Robots/bkmk_robot_base): Pass query part.
12
13 Version 5.2.4 (2024-03-04)
14
15    Fix(Robots/bkmk_rrequests): No need to re-check error 404 via proxy.
16
17 Version 5.2.3 (2024-03-03)
18
19    Feat(Robots/bkmk_rrequests): Report 40x and 50x errors.
20
21    Fix HTML pasrer based on Bs4: Find "shortcut icon".
22
23 Version 5.2.2 (2024-03-03)
24
25    Robots/bkmk_rrequests: Add request headers.
26
27    Robots/bkmk_robot_base: Process "data:image/" icons.
28
29 Version 5.2.1 (2024-03-02)
30
31    Speedup second access through proxy.
32
33 Version 5.2.0 (2024-03-02)
34
35    For the robot based on requests allow to use a proxy.
36
37 Version 5.1.0 (2024-03-01)
38
39    Robot based on requests.
40
41 Version 5.0.0 (2023-11-22)
42
43    Python 3.
44
45    Report redirects and set URLs.
46
47    Delete URLs.
48
49    Remove BeautifulSoup.py (use globally installed).
50
51 Version 4.6.0 (2014-07-06)
52
53    Split simple robot: separate network operations and
54    URL handling/HTML parsing.
55
56    Change parse_html to parse strings, not files.
57
58    Split parse_html/__init__.py into __main__.py.
59
60    Adapt JSON storage to recent Mozilla export format.
61
62    Add ChangeLog.
63
64    Allow parameters in BKMK_* environment variables; for example,
65    BKMK_ROBOT=forking:subproc=urllib or
66    BKMK_STORAGE=json:filename=bookmarks_db.json.
67
68    Pass subproc parameter to the subprocess to allow different robots.
69
70    Add a new robot based on urllib2.
71
72 Version 4.5.6 (2014-01-14)
73
74    Remove absolute directory ~/lib to make it portable.
75
76 Version 4.5.5 (2013-12-05)
77
78    Parse <meta charset="...">.
79
80 Version 4.5.4 (2013-11-23)
81
82    Published through git/gitweb.
83
84 Version 4.5.3 (2013-07-26)
85
86    Minor tweak in Makefile.
87
88    Switched to git.
89
90 Version 4.5.2 (2012-09-24)
91
92    Removed svn:keywords.
93
94    Handle redirects with codes 303 and 307.
95
96    Fixed a bug in handling place: URIs (do not append '//').
97
98 Version 4.5.1 (2011-12-28).
99
100    Read/write mozilla-specific date/time format in json storage.
101
102 Version 4.5.0 (2011-12-18).
103
104    Encode international domain names with IDNA encoding.
105
106    Adapted to different Mozilla 'place' URIs.
107
108 Version 4.4.0 (2011-01-07).
109
110    Moved BeautifulSoup.py and subproc.py from Robots/ to the top-level
111    directory.
112
113    Moved parse_html.py and its submodules to a separate parse_html package.
114
115    Added statistics code to parse_html, got a statistics on parser
116    success/failrure rate, reordered parsers.
117
118    Removed old cruft.
119
120 Version 4.3.1 (2011-01-03).
121
122    Get favicon before HTML redirect (refresh).
123
124 Version 4.3.0 (2011-01-01).
125
126    Robots no longer have one global temporary file - there are at least two
127    (html and favicon), and in the future there will be more for asynchronous
128    robot(s) that would test many URLs in parallel.
129
130 Version 4.2.2.
131
132     Added HTML Parser based on lxml.
133
134 Version 4.2.1 (2010-08-12).
135
136    Added HTML Parser based on html5 library.
137
138 Version 4.2.0 (2010-08-11).
139
140    New storage: json; it allows to load and store Mozilla (Firefox) backup
141    files.
142
143 Version 4.1.2
144
145    Process http error 307 as a temporary redirect.
146
147 Version 4.1.1 (2008-03-10)
148
149    Catch and report all errors.
150
151    Consider application/xhtml+xml as HTML.
152
153    Better handling of exceptions while looking up the icon.
154
155    Recode HTML entities.
156
157    Always use utf-8 as the default encoding.
158
159 Version 4.1.0 (2008-01-14)
160
161    Parser for HTML based on BeautifulSoup.
162
163    Changed User-agent header: I saw a number of sites that forbid
164    "Mozilla compatible" browsers. Added a number of fake headers to pretend
165    this is a real web-browser - there are still stupid sites
166    that are trying to protect themselves from robots by analyzing headers.
167
168    Handle redirects while looking for the icon.
169
170    Handle float timeouts in HTML redirects.
171
172    Minimal required version of Python is 2.5 now.
173
174 Version 4.0.0 (2007-10-20)
175
176    Extended support for Mozilla: charset and icon in bookmarks.
177    Use the charset to add Accept-Charset header.
178    Retrieve favicon.ico (or whatever <link> points to) and store it.
179
180    The project celebrates 10th anniversary!
181
182 Version 3.4.1 (2005-01-29)
183
184    Updated to Python 2.4. Switched from CVS to Subversion.
185
186 Version 3.4.0 (2004-09-23)
187
188    Extended support for Mozilla: keywords in bookmarks.
189    Updated to m_lib version 1.2.
190
191 Version 3.3.2
192
193    parse_html.py can now recode unicode entities in titles.
194
195 Version 3.3.0
196
197    Required Python 2.2.
198
199    HTML parser. If the protocol is HTTP, and there is Content-Type header, and
200    content type is text/html, the object is parsed to extract its title; if
201    the Content-Type header has charset, or if the HTML has <META> with
202    charset, the title is converted from the given charset to the default
203    charset. The <HEADER> is also parsed to extract <META> tag with redirect,
204    if any.
205
206 Version 3.0
207
208    Complete rewrite from scratch. Created mechanism for pluggable storage
209    managers, writers (DB dumpers/exporters) and robots.