]> git.phdru.name Git - bookmarks_db.git/blob - doc/ChangeLog
e373f88125ffc046f15c2b6068d574d1ec417e1c
[bookmarks_db.git] / doc / ChangeLog
1 Version 5.3.0 (2024-03-06)
2
3    Renamed set-URLs -> set-urls.
4
5 Version 5.2.5 (2024-03-05)
6
7    Feat(Robots/bkmk_rrequests): Ignore all problems with certificates.
8
9    Fix(Robots/bkmk_robot_base): Pass query part.
10
11 Version 5.2.4 (2024-03-04)
12
13    Fix(Robots/bkmk_rrequests): No need to re-check error 404 via proxy.
14
15 Version 5.2.3 (2024-03-03)
16
17    Feat(Robots/bkmk_rrequests): Report 40x and 50x errors.
18
19    Fix HTML pasrer based on Bs4: Find "shortcut icon".
20
21 Version 5.2.2 (2024-03-03)
22
23    Robots/bkmk_rrequests: Add request headers.
24
25    Robots/bkmk_robot_base: Process "data:image/" icons.
26
27 Version 5.2.1 (2024-03-02)
28
29    Speedup second access through proxy.
30
31 Version 5.2.0 (2024-03-02)
32
33    For the robot based on requests allow to use a proxy.
34
35 Version 5.1.0 (2024-03-01)
36
37    Robot based on requests.
38
39 Version 5.0.0 (2023-11-22)
40
41    Python 3.
42
43    Report redirects and set URLs.
44
45    Delete URLs.
46
47    Remove BeautifulSoup.py (use globally installed).
48
49 Version 4.6.0 (2014-07-06)
50
51    Split simple robot: separate network operations and
52    URL handling/HTML parsing.
53
54    Change parse_html to parse strings, not files.
55
56    Split parse_html/__init__.py into __main__.py.
57
58    Adapt JSON storage to recent Mozilla export format.
59
60    Add ChangeLog.
61
62    Allow parameters in BKMK_* environment variables; for example,
63    BKMK_ROBOT=forking:subproc=urllib or
64    BKMK_STORAGE=json:filename=bookmarks_db.json.
65
66    Pass subproc parameter to the subprocess to allow different robots.
67
68    Add a new robot based on urllib2.
69
70 Version 4.5.6 (2014-01-14)
71
72    Remove absolute directory ~/lib to make it portable.
73
74 Version 4.5.5 (2013-12-05)
75
76    Parse <meta charset="...">.
77
78 Version 4.5.4 (2013-11-23)
79
80    Published through git/gitweb.
81
82 Version 4.5.3 (2013-07-26)
83
84    Minor tweak in Makefile.
85
86    Switched to git.
87
88 Version 4.5.2 (2012-09-24)
89
90    Removed svn:keywords.
91
92    Handle redirects with codes 303 and 307.
93
94    Fixed a bug in handling place: URIs (do not append '//').
95
96 Version 4.5.1 (2011-12-28).
97
98    Read/write mozilla-specific date/time format in json storage.
99
100 Version 4.5.0 (2011-12-18).
101
102    Encode international domain names with IDNA encoding.
103
104    Adapted to different Mozilla 'place' URIs.
105
106 Version 4.4.0 (2011-01-07).
107
108    Moved BeautifulSoup.py and subproc.py from Robots/ to the top-level
109    directory.
110
111    Moved parse_html.py and its submodules to a separate parse_html package.
112
113    Added statistics code to parse_html, got a statistics on parser
114    success/failrure rate, reordered parsers.
115
116    Removed old cruft.
117
118 Version 4.3.1 (2011-01-03).
119
120    Get favicon before HTML redirect (refresh).
121
122 Version 4.3.0 (2011-01-01).
123
124    Robots no longer have one global temporary file - there are at least two
125    (html and favicon), and in the future there will be more for asynchronous
126    robot(s) that would test many URLs in parallel.
127
128 Version 4.2.2.
129
130     Added HTML Parser based on lxml.
131
132 Version 4.2.1 (2010-08-12).
133
134    Added HTML Parser based on html5 library.
135
136 Version 4.2.0 (2010-08-11).
137
138    New storage: json; it allows to load and store Mozilla (Firefox) backup
139    files.
140
141 Version 4.1.2
142
143    Process http error 307 as a temporary redirect.
144
145 Version 4.1.1 (2008-03-10)
146
147    Catch and report all errors.
148
149    Consider application/xhtml+xml as HTML.
150
151    Better handling of exceptions while looking up the icon.
152
153    Recode HTML entities.
154
155    Always use utf-8 as the default encoding.
156
157 Version 4.1.0 (2008-01-14)
158
159    Parser for HTML based on BeautifulSoup.
160
161    Changed User-agent header: I saw a number of sites that forbid
162    "Mozilla compatible" browsers. Added a number of fake headers to pretend
163    this is a real web-browser - there are still stupid sites
164    that are trying to protect themselves from robots by analyzing headers.
165
166    Handle redirects while looking for the icon.
167
168    Handle float timeouts in HTML redirects.
169
170    Minimal required version of Python is 2.5 now.
171
172 Version 4.0.0 (2007-10-20)
173
174    Extended support for Mozilla: charset and icon in bookmarks.
175    Use the charset to add Accept-Charset header.
176    Retrieve favicon.ico (or whatever <link> points to) and store it.
177
178    The project celebrates 10th anniversary!
179
180 Version 3.4.1 (2005-01-29)
181
182    Updated to Python 2.4. Switched from CVS to Subversion.
183
184 Version 3.4.0 (2004-09-23)
185
186    Extended support for Mozilla: keywords in bookmarks.
187    Updated to m_lib version 1.2.
188
189 Version 3.3.2
190
191    parse_html.py can now recode unicode entities in titles.
192
193 Version 3.3.0
194
195    Required Python 2.2.
196
197    HTML parser. If the protocol is HTTP, and there is Content-Type header, and
198    content type is text/html, the object is parsed to extract its title; if
199    the Content-Type header has charset, or if the HTML has <META> with
200    charset, the title is converted from the given charset to the default
201    charset. The <HEADER> is also parsed to extract <META> tag with redirect,
202    if any.
203
204 Version 3.0
205
206    Complete rewrite from scratch. Created mechanism for pluggable storage
207    managers, writers (DB dumpers/exporters) and robots.