]> git.phdru.name Git - bookmarks_db.git/blob - doc/ChangeLog
19d2d5dcd7d6e7cc43e86793bf1d4d0f7ba6fe05
[bookmarks_db.git] / doc / ChangeLog
1 Version 5.3.1 (2024-03-??)
2
3    Renamed check_urls.py to check_urls_db.py
4
5    Renamed check_url.py to check_urls.py
6
7 Version 5.3.0 (2024-03-06)
8
9    Added get_url.py: a script to get one file from an URL.
10
11    Renamed set-URLs -> set-urls.
12
13 Version 5.2.5 (2024-03-05)
14
15    Feat(Robots/bkmk_rrequests): Ignore all problems with certificates.
16
17    Fix(Robots/bkmk_robot_base): Pass query part.
18
19 Version 5.2.4 (2024-03-04)
20
21    Fix(Robots/bkmk_rrequests): No need to re-check error 404 via proxy.
22
23 Version 5.2.3 (2024-03-03)
24
25    Feat(Robots/bkmk_rrequests): Report 40x and 50x errors.
26
27    Fix HTML pasrer based on Bs4: Find "shortcut icon".
28
29 Version 5.2.2 (2024-03-03)
30
31    Robots/bkmk_rrequests: Add request headers.
32
33    Robots/bkmk_robot_base: Process "data:image/" icons.
34
35 Version 5.2.1 (2024-03-02)
36
37    Speedup second access through proxy.
38
39 Version 5.2.0 (2024-03-02)
40
41    For the robot based on requests allow to use a proxy.
42
43 Version 5.1.0 (2024-03-01)
44
45    Robot based on requests.
46
47 Version 5.0.0 (2023-11-22)
48
49    Python 3.
50
51    Report redirects and set URLs.
52
53    Delete URLs.
54
55    Remove BeautifulSoup.py (use globally installed).
56
57 Version 4.6.0 (2014-07-06)
58
59    Split simple robot: separate network operations and
60    URL handling/HTML parsing.
61
62    Change parse_html to parse strings, not files.
63
64    Split parse_html/__init__.py into __main__.py.
65
66    Adapt JSON storage to recent Mozilla export format.
67
68    Add ChangeLog.
69
70    Allow parameters in BKMK_* environment variables; for example,
71    BKMK_ROBOT=forking:subproc=urllib or
72    BKMK_STORAGE=json:filename=bookmarks_db.json.
73
74    Pass subproc parameter to the subprocess to allow different robots.
75
76    Add a new robot based on urllib2.
77
78 Version 4.5.6 (2014-01-14)
79
80    Remove absolute directory ~/lib to make it portable.
81
82 Version 4.5.5 (2013-12-05)
83
84    Parse <meta charset="...">.
85
86 Version 4.5.4 (2013-11-23)
87
88    Published through git/gitweb.
89
90 Version 4.5.3 (2013-07-26)
91
92    Minor tweak in Makefile.
93
94    Switched to git.
95
96 Version 4.5.2 (2012-09-24)
97
98    Removed svn:keywords.
99
100    Handle redirects with codes 303 and 307.
101
102    Fixed a bug in handling place: URIs (do not append '//').
103
104 Version 4.5.1 (2011-12-28).
105
106    Read/write mozilla-specific date/time format in json storage.
107
108 Version 4.5.0 (2011-12-18).
109
110    Encode international domain names with IDNA encoding.
111
112    Adapted to different Mozilla 'place' URIs.
113
114 Version 4.4.0 (2011-01-07).
115
116    Moved BeautifulSoup.py and subproc.py from Robots/ to the top-level
117    directory.
118
119    Moved parse_html.py and its submodules to a separate parse_html package.
120
121    Added statistics code to parse_html, got a statistics on parser
122    success/failrure rate, reordered parsers.
123
124    Removed old cruft.
125
126 Version 4.3.1 (2011-01-03).
127
128    Get favicon before HTML redirect (refresh).
129
130 Version 4.3.0 (2011-01-01).
131
132    Robots no longer have one global temporary file - there are at least two
133    (html and favicon), and in the future there will be more for asynchronous
134    robot(s) that would test many URLs in parallel.
135
136 Version 4.2.2.
137
138     Added HTML Parser based on lxml.
139
140 Version 4.2.1 (2010-08-12).
141
142    Added HTML Parser based on html5 library.
143
144 Version 4.2.0 (2010-08-11).
145
146    New storage: json; it allows to load and store Mozilla (Firefox) backup
147    files.
148
149 Version 4.1.2
150
151    Process http error 307 as a temporary redirect.
152
153 Version 4.1.1 (2008-03-10)
154
155    Catch and report all errors.
156
157    Consider application/xhtml+xml as HTML.
158
159    Better handling of exceptions while looking up the icon.
160
161    Recode HTML entities.
162
163    Always use utf-8 as the default encoding.
164
165 Version 4.1.0 (2008-01-14)
166
167    Parser for HTML based on BeautifulSoup.
168
169    Changed User-agent header: I saw a number of sites that forbid
170    "Mozilla compatible" browsers. Added a number of fake headers to pretend
171    this is a real web-browser - there are still stupid sites
172    that are trying to protect themselves from robots by analyzing headers.
173
174    Handle redirects while looking for the icon.
175
176    Handle float timeouts in HTML redirects.
177
178    Minimal required version of Python is 2.5 now.
179
180 Version 4.0.0 (2007-10-20)
181
182    Extended support for Mozilla: charset and icon in bookmarks.
183    Use the charset to add Accept-Charset header.
184    Retrieve favicon.ico (or whatever <link> points to) and store it.
185
186    The project celebrates 10th anniversary!
187
188 Version 3.4.1 (2005-01-29)
189
190    Updated to Python 2.4. Switched from CVS to Subversion.
191
192 Version 3.4.0 (2004-09-23)
193
194    Extended support for Mozilla: keywords in bookmarks.
195    Updated to m_lib version 1.2.
196
197 Version 3.3.2
198
199    parse_html.py can now recode unicode entities in titles.
200
201 Version 3.3.0
202
203    Required Python 2.2.
204
205    HTML parser. If the protocol is HTTP, and there is Content-Type header, and
206    content type is text/html, the object is parsed to extract its title; if
207    the Content-Type header has charset, or if the HTML has <META> with
208    charset, the title is converted from the given charset to the default
209    charset. The <HEADER> is also parsed to extract <META> tag with redirect,
210    if any.
211
212 Version 3.0
213
214    Complete rewrite from scratch. Created mechanism for pluggable storage
215    managers, writers (DB dumpers/exporters) and robots.