]> git.phdru.name Git - bookmarks_db.git/blob - doc/ChangeLog
Fix(Robot): Stop splitting and un-splitting URLs
[bookmarks_db.git] / doc / ChangeLog
1 Version 5.3.1 (2024-03-??)
2
3    Renamed check_urls.py to check_urls_db.py.
4
5    Renamed check_url.py to check_urls.py.
6
7    Stop splitting and un-splitting URLs. Pass bookmark.href as is.
8
9 Version 5.3.0 (2024-03-06)
10
11    Added get_url.py: a script to get one file from an URL.
12
13    Renamed set-URLs -> set-urls.
14
15 Version 5.2.5 (2024-03-05)
16
17    Feat(Robots/bkmk_rrequests): Ignore all problems with certificates.
18
19    Fix(Robots/bkmk_robot_base): Pass query part.
20
21 Version 5.2.4 (2024-03-04)
22
23    Fix(Robots/bkmk_rrequests): No need to re-check error 404 via proxy.
24
25 Version 5.2.3 (2024-03-03)
26
27    Feat(Robots/bkmk_rrequests): Report 40x and 50x errors.
28
29    Fix HTML pasrer based on Bs4: Find "shortcut icon".
30
31 Version 5.2.2 (2024-03-03)
32
33    Robots/bkmk_rrequests: Add request headers.
34
35    Robots/bkmk_robot_base: Process "data:image/" icons.
36
37 Version 5.2.1 (2024-03-02)
38
39    Speedup second access through proxy.
40
41 Version 5.2.0 (2024-03-02)
42
43    For the robot based on requests allow to use a proxy.
44
45 Version 5.1.0 (2024-03-01)
46
47    Robot based on requests.
48
49 Version 5.0.0 (2023-11-22)
50
51    Python 3.
52
53    Report redirects and set URLs.
54
55    Delete URLs.
56
57    Remove BeautifulSoup.py (use globally installed).
58
59 Version 4.6.0 (2014-07-06)
60
61    Split simple robot: separate network operations and
62    URL handling/HTML parsing.
63
64    Change parse_html to parse strings, not files.
65
66    Split parse_html/__init__.py into __main__.py.
67
68    Adapt JSON storage to recent Mozilla export format.
69
70    Add ChangeLog.
71
72    Allow parameters in BKMK_* environment variables; for example,
73    BKMK_ROBOT=forking:subproc=urllib or
74    BKMK_STORAGE=json:filename=bookmarks_db.json.
75
76    Pass subproc parameter to the subprocess to allow different robots.
77
78    Add a new robot based on urllib2.
79
80 Version 4.5.6 (2014-01-14)
81
82    Remove absolute directory ~/lib to make it portable.
83
84 Version 4.5.5 (2013-12-05)
85
86    Parse <meta charset="...">.
87
88 Version 4.5.4 (2013-11-23)
89
90    Published through git/gitweb.
91
92 Version 4.5.3 (2013-07-26)
93
94    Minor tweak in Makefile.
95
96    Switched to git.
97
98 Version 4.5.2 (2012-09-24)
99
100    Removed svn:keywords.
101
102    Handle redirects with codes 303 and 307.
103
104    Fixed a bug in handling place: URIs (do not append '//').
105
106 Version 4.5.1 (2011-12-28).
107
108    Read/write mozilla-specific date/time format in json storage.
109
110 Version 4.5.0 (2011-12-18).
111
112    Encode international domain names with IDNA encoding.
113
114    Adapted to different Mozilla 'place' URIs.
115
116 Version 4.4.0 (2011-01-07).
117
118    Moved BeautifulSoup.py and subproc.py from Robots/ to the top-level
119    directory.
120
121    Moved parse_html.py and its submodules to a separate parse_html package.
122
123    Added statistics code to parse_html, got a statistics on parser
124    success/failrure rate, reordered parsers.
125
126    Removed old cruft.
127
128 Version 4.3.1 (2011-01-03).
129
130    Get favicon before HTML redirect (refresh).
131
132 Version 4.3.0 (2011-01-01).
133
134    Robots no longer have one global temporary file - there are at least two
135    (html and favicon), and in the future there will be more for asynchronous
136    robot(s) that would test many URLs in parallel.
137
138 Version 4.2.2.
139
140     Added HTML Parser based on lxml.
141
142 Version 4.2.1 (2010-08-12).
143
144    Added HTML Parser based on html5 library.
145
146 Version 4.2.0 (2010-08-11).
147
148    New storage: json; it allows to load and store Mozilla (Firefox) backup
149    files.
150
151 Version 4.1.2
152
153    Process http error 307 as a temporary redirect.
154
155 Version 4.1.1 (2008-03-10)
156
157    Catch and report all errors.
158
159    Consider application/xhtml+xml as HTML.
160
161    Better handling of exceptions while looking up the icon.
162
163    Recode HTML entities.
164
165    Always use utf-8 as the default encoding.
166
167 Version 4.1.0 (2008-01-14)
168
169    Parser for HTML based on BeautifulSoup.
170
171    Changed User-agent header: I saw a number of sites that forbid
172    "Mozilla compatible" browsers. Added a number of fake headers to pretend
173    this is a real web-browser - there are still stupid sites
174    that are trying to protect themselves from robots by analyzing headers.
175
176    Handle redirects while looking for the icon.
177
178    Handle float timeouts in HTML redirects.
179
180    Minimal required version of Python is 2.5 now.
181
182 Version 4.0.0 (2007-10-20)
183
184    Extended support for Mozilla: charset and icon in bookmarks.
185    Use the charset to add Accept-Charset header.
186    Retrieve favicon.ico (or whatever <link> points to) and store it.
187
188    The project celebrates 10th anniversary!
189
190 Version 3.4.1 (2005-01-29)
191
192    Updated to Python 2.4. Switched from CVS to Subversion.
193
194 Version 3.4.0 (2004-09-23)
195
196    Extended support for Mozilla: keywords in bookmarks.
197    Updated to m_lib version 1.2.
198
199 Version 3.3.2
200
201    parse_html.py can now recode unicode entities in titles.
202
203 Version 3.3.0
204
205    Required Python 2.2.
206
207    HTML parser. If the protocol is HTTP, and there is Content-Type header, and
208    content type is text/html, the object is parsed to extract its title; if
209    the Content-Type header has charset, or if the HTML has <META> with
210    charset, the title is converted from the given charset to the default
211    charset. The <HEADER> is also parsed to extract <META> tag with redirect,
212    if any.
213
214 Version 3.0
215
216    Complete rewrite from scratch. Created mechanism for pluggable storage
217    managers, writers (DB dumpers/exporters) and robots.