]> git.phdru.name Git - bookmarks_db.git/blob - doc/ChangeLog
78324c8a5a52358a7ef73a589207fbd7baa8e16a
[bookmarks_db.git] / doc / ChangeLog
1 Version 5.3.1 (2024-03-??)
2
3    Renamed check_urls.py to check_urls_db.py
4
5 Version 5.3.0 (2024-03-06)
6
7    Added get_url.py: a script to get one file from an URL.
8
9    Renamed set-URLs -> set-urls.
10
11 Version 5.2.5 (2024-03-05)
12
13    Feat(Robots/bkmk_rrequests): Ignore all problems with certificates.
14
15    Fix(Robots/bkmk_robot_base): Pass query part.
16
17 Version 5.2.4 (2024-03-04)
18
19    Fix(Robots/bkmk_rrequests): No need to re-check error 404 via proxy.
20
21 Version 5.2.3 (2024-03-03)
22
23    Feat(Robots/bkmk_rrequests): Report 40x and 50x errors.
24
25    Fix HTML pasrer based on Bs4: Find "shortcut icon".
26
27 Version 5.2.2 (2024-03-03)
28
29    Robots/bkmk_rrequests: Add request headers.
30
31    Robots/bkmk_robot_base: Process "data:image/" icons.
32
33 Version 5.2.1 (2024-03-02)
34
35    Speedup second access through proxy.
36
37 Version 5.2.0 (2024-03-02)
38
39    For the robot based on requests allow to use a proxy.
40
41 Version 5.1.0 (2024-03-01)
42
43    Robot based on requests.
44
45 Version 5.0.0 (2023-11-22)
46
47    Python 3.
48
49    Report redirects and set URLs.
50
51    Delete URLs.
52
53    Remove BeautifulSoup.py (use globally installed).
54
55 Version 4.6.0 (2014-07-06)
56
57    Split simple robot: separate network operations and
58    URL handling/HTML parsing.
59
60    Change parse_html to parse strings, not files.
61
62    Split parse_html/__init__.py into __main__.py.
63
64    Adapt JSON storage to recent Mozilla export format.
65
66    Add ChangeLog.
67
68    Allow parameters in BKMK_* environment variables; for example,
69    BKMK_ROBOT=forking:subproc=urllib or
70    BKMK_STORAGE=json:filename=bookmarks_db.json.
71
72    Pass subproc parameter to the subprocess to allow different robots.
73
74    Add a new robot based on urllib2.
75
76 Version 4.5.6 (2014-01-14)
77
78    Remove absolute directory ~/lib to make it portable.
79
80 Version 4.5.5 (2013-12-05)
81
82    Parse <meta charset="...">.
83
84 Version 4.5.4 (2013-11-23)
85
86    Published through git/gitweb.
87
88 Version 4.5.3 (2013-07-26)
89
90    Minor tweak in Makefile.
91
92    Switched to git.
93
94 Version 4.5.2 (2012-09-24)
95
96    Removed svn:keywords.
97
98    Handle redirects with codes 303 and 307.
99
100    Fixed a bug in handling place: URIs (do not append '//').
101
102 Version 4.5.1 (2011-12-28).
103
104    Read/write mozilla-specific date/time format in json storage.
105
106 Version 4.5.0 (2011-12-18).
107
108    Encode international domain names with IDNA encoding.
109
110    Adapted to different Mozilla 'place' URIs.
111
112 Version 4.4.0 (2011-01-07).
113
114    Moved BeautifulSoup.py and subproc.py from Robots/ to the top-level
115    directory.
116
117    Moved parse_html.py and its submodules to a separate parse_html package.
118
119    Added statistics code to parse_html, got a statistics on parser
120    success/failrure rate, reordered parsers.
121
122    Removed old cruft.
123
124 Version 4.3.1 (2011-01-03).
125
126    Get favicon before HTML redirect (refresh).
127
128 Version 4.3.0 (2011-01-01).
129
130    Robots no longer have one global temporary file - there are at least two
131    (html and favicon), and in the future there will be more for asynchronous
132    robot(s) that would test many URLs in parallel.
133
134 Version 4.2.2.
135
136     Added HTML Parser based on lxml.
137
138 Version 4.2.1 (2010-08-12).
139
140    Added HTML Parser based on html5 library.
141
142 Version 4.2.0 (2010-08-11).
143
144    New storage: json; it allows to load and store Mozilla (Firefox) backup
145    files.
146
147 Version 4.1.2
148
149    Process http error 307 as a temporary redirect.
150
151 Version 4.1.1 (2008-03-10)
152
153    Catch and report all errors.
154
155    Consider application/xhtml+xml as HTML.
156
157    Better handling of exceptions while looking up the icon.
158
159    Recode HTML entities.
160
161    Always use utf-8 as the default encoding.
162
163 Version 4.1.0 (2008-01-14)
164
165    Parser for HTML based on BeautifulSoup.
166
167    Changed User-agent header: I saw a number of sites that forbid
168    "Mozilla compatible" browsers. Added a number of fake headers to pretend
169    this is a real web-browser - there are still stupid sites
170    that are trying to protect themselves from robots by analyzing headers.
171
172    Handle redirects while looking for the icon.
173
174    Handle float timeouts in HTML redirects.
175
176    Minimal required version of Python is 2.5 now.
177
178 Version 4.0.0 (2007-10-20)
179
180    Extended support for Mozilla: charset and icon in bookmarks.
181    Use the charset to add Accept-Charset header.
182    Retrieve favicon.ico (or whatever <link> points to) and store it.
183
184    The project celebrates 10th anniversary!
185
186 Version 3.4.1 (2005-01-29)
187
188    Updated to Python 2.4. Switched from CVS to Subversion.
189
190 Version 3.4.0 (2004-09-23)
191
192    Extended support for Mozilla: keywords in bookmarks.
193    Updated to m_lib version 1.2.
194
195 Version 3.3.2
196
197    parse_html.py can now recode unicode entities in titles.
198
199 Version 3.3.0
200
201    Required Python 2.2.
202
203    HTML parser. If the protocol is HTTP, and there is Content-Type header, and
204    content type is text/html, the object is parsed to extract its title; if
205    the Content-Type header has charset, or if the HTML has <META> with
206    charset, the title is converted from the given charset to the default
207    charset. The <HEADER> is also parsed to extract <META> tag with redirect,
208    if any.
209
210 Version 3.0
211
212    Complete rewrite from scratch. Created mechanism for pluggable storage
213    managers, writers (DB dumpers/exporters) and robots.