]> git.phdru.name Git - bookmarks_db.git/blob - doc/ChangeLog
Version 5.2.5
[bookmarks_db.git] / doc / ChangeLog
1 Version 5.2.5 (2024-03-05)
2
3    Feat(Robots/bkmk_rrequests): Ignore all problems with certificates.
4
5    Fix(Robots/bkmk_robot_base): Pass query part.
6
7 Version 5.2.4 (2024-03-04)
8
9    Fix(Robots/bkmk_rrequests): No need to re-check error 404 via proxy.
10
11 Version 5.2.3 (2024-03-03)
12
13    Feat(Robots/bkmk_rrequests): Report 40x and 50x errors.
14
15    Fix HTML pasrer based on Bs4: Find "shortcut icon".
16
17 Version 5.2.2 (2024-03-03)
18
19    Robots/bkmk_rrequests: Add request headers.
20
21    Robots/bkmk_robot_base: Process "data:image/" icons.
22
23 Version 5.2.1 (2024-03-02)
24
25    Speedup second access through proxy.
26
27 Version 5.2.0 (2024-03-02)
28
29    For the robot based on requests allow to use a proxy.
30
31 Version 5.1.0 (2024-03-01)
32
33    Robot based on requests.
34
35 Version 5.0.0 (2023-11-22)
36
37    Python 3.
38
39    Report redirects and set URLs.
40
41    Delete URLs.
42
43    Remove BeautifulSoup.py (use globally installed).
44
45 Version 4.6.0 (2014-07-06)
46
47    Split simple robot: separate network operations and
48    URL handling/HTML parsing.
49
50    Change parse_html to parse strings, not files.
51
52    Split parse_html/__init__.py into __main__.py.
53
54    Adapt JSON storage to recent Mozilla export format.
55
56    Add ChangeLog.
57
58    Allow parameters in BKMK_* environment variables; for example,
59    BKMK_ROBOT=forking:subproc=urllib or
60    BKMK_STORAGE=json:filename=bookmarks_db.json.
61
62    Pass subproc parameter to the subprocess to allow different robots.
63
64    Add a new robot based on urllib2.
65
66 Version 4.5.6 (2014-01-14)
67
68    Remove absolute directory ~/lib to make it portable.
69
70 Version 4.5.5 (2013-12-05)
71
72    Parse <meta charset="...">.
73
74 Version 4.5.4 (2013-11-23)
75
76    Published through git/gitweb.
77
78 Version 4.5.3 (2013-07-26)
79
80    Minor tweak in Makefile.
81
82    Switched to git.
83
84 Version 4.5.2 (2012-09-24)
85
86    Removed svn:keywords.
87
88    Handle redirects with codes 303 and 307.
89
90    Fixed a bug in handling place: URIs (do not append '//').
91
92 Version 4.5.1 (2011-12-28).
93
94    Read/write mozilla-specific date/time format in json storage.
95
96 Version 4.5.0 (2011-12-18).
97
98    Encode international domain names with IDNA encoding.
99
100    Adapted to different Mozilla 'place' URIs.
101
102 Version 4.4.0 (2011-01-07).
103
104    Moved BeautifulSoup.py and subproc.py from Robots/ to the top-level
105    directory.
106
107    Moved parse_html.py and its submodules to a separate parse_html package.
108
109    Added statistics code to parse_html, got a statistics on parser
110    success/failrure rate, reordered parsers.
111
112    Removed old cruft.
113
114 Version 4.3.1 (2011-01-03).
115
116    Get favicon before HTML redirect (refresh).
117
118 Version 4.3.0 (2011-01-01).
119
120    Robots no longer have one global temporary file - there are at least two
121    (html and favicon), and in the future there will be more for asynchronous
122    robot(s) that would test many URLs in parallel.
123
124 Version 4.2.2.
125
126     Added HTML Parser based on lxml.
127
128 Version 4.2.1 (2010-08-12).
129
130    Added HTML Parser based on html5 library.
131
132 Version 4.2.0 (2010-08-11).
133
134    New storage: json; it allows to load and store Mozilla (Firefox) backup
135    files.
136
137 Version 4.1.2
138
139    Process http error 307 as a temporary redirect.
140
141 Version 4.1.1 (2008-03-10)
142
143    Catch and report all errors.
144
145    Consider application/xhtml+xml as HTML.
146
147    Better handling of exceptions while looking up the icon.
148
149    Recode HTML entities.
150
151    Always use utf-8 as the default encoding.
152
153 Version 4.1.0 (2008-01-14)
154
155    Parser for HTML based on BeautifulSoup.
156
157    Changed User-agent header: I saw a number of sites that forbid
158    "Mozilla compatible" browsers. Added a number of fake headers to pretend
159    this is a real web-browser - there are still stupid sites
160    that are trying to protect themselves from robots by analyzing headers.
161
162    Handle redirects while looking for the icon.
163
164    Handle float timeouts in HTML redirects.
165
166    Minimal required version of Python is 2.5 now.
167
168 Version 4.0.0 (2007-10-20)
169
170    Extended support for Mozilla: charset and icon in bookmarks.
171    Use the charset to add Accept-Charset header.
172    Retrieve favicon.ico (or whatever <link> points to) and store it.
173
174    The project celebrates 10th anniversary!
175
176 Version 3.4.1 (2005-01-29)
177
178    Updated to Python 2.4. Switched from CVS to Subversion.
179
180 Version 3.4.0 (2004-09-23)
181
182    Extended support for Mozilla: keywords in bookmarks.
183    Updated to m_lib version 1.2.
184
185 Version 3.3.2
186
187    parse_html.py can now recode unicode entities in titles.
188
189 Version 3.3.0
190
191    Required Python 2.2.
192
193    HTML parser. If the protocol is HTTP, and there is Content-Type header, and
194    content type is text/html, the object is parsed to extract its title; if
195    the Content-Type header has charset, or if the HTML has <META> with
196    charset, the title is converted from the given charset to the default
197    charset. The <HEADER> is also parsed to extract <META> tag with redirect,
198    if any.
199
200 Version 3.0
201
202    Complete rewrite from scratch. Created mechanism for pluggable storage
203    managers, writers (DB dumpers/exporters) and robots.