]> git.phdru.name Git - bookmarks_db.git/blob - doc/ChangeLog
Version 5.2.4: No need to re-check error 404 via proxy
[bookmarks_db.git] / doc / ChangeLog
1 Version 5.2.4 (2024-03-04)
2
3    Fix(Robots/bkmk_rrequests): No need to re-check error 404 via proxy.
4
5 Version 5.2.3 (2024-03-03)
6
7    Feat(Robots/bkmk_rrequests): Report 40x and 50x errors.
8
9    Fix HTML pasrer based on Bs4: Find "shortcut icon".
10
11 Version 5.2.2 (2024-03-03)
12
13    Robots/bkmk_rrequests: Add request headers.
14
15    Robots/bkmk_robot_base: Process "data:image/" icons.
16
17 Version 5.2.1 (2024-03-02)
18
19    Speedup second access through proxy.
20
21 Version 5.2.0 (2024-03-02)
22
23    For the robot based on requests allow to use a proxy.
24
25 Version 5.1.0 (2024-03-01)
26
27    Robot based on requests.
28
29 Version 5.0.0 (2023-11-22)
30
31    Python 3.
32
33    Report redirects and set URLs.
34
35    Delete URLs.
36
37    Remove BeautifulSoup.py (use globally installed).
38
39 Version 4.6.0 (2014-07-06)
40
41    Split simple robot: separate network operations and
42    URL handling/HTML parsing.
43
44    Change parse_html to parse strings, not files.
45
46    Split parse_html/__init__.py into __main__.py.
47
48    Adapt JSON storage to recent Mozilla export format.
49
50    Add ChangeLog.
51
52    Allow parameters in BKMK_* environment variables; for example,
53    BKMK_ROBOT=forking:subproc=urllib or
54    BKMK_STORAGE=json:filename=bookmarks_db.json.
55
56    Pass subproc parameter to the subprocess to allow different robots.
57
58    Add a new robot based on urllib2.
59
60 Version 4.5.6 (2014-01-14)
61
62    Remove absolute directory ~/lib to make it portable.
63
64 Version 4.5.5 (2013-12-05)
65
66    Parse <meta charset="...">.
67
68 Version 4.5.4 (2013-11-23)
69
70    Published through git/gitweb.
71
72 Version 4.5.3 (2013-07-26)
73
74    Minor tweak in Makefile.
75
76    Switched to git.
77
78 Version 4.5.2 (2012-09-24)
79
80    Removed svn:keywords.
81
82    Handle redirects with codes 303 and 307.
83
84    Fixed a bug in handling place: URIs (do not append '//').
85
86 Version 4.5.1 (2011-12-28).
87
88    Read/write mozilla-specific date/time format in json storage.
89
90 Version 4.5.0 (2011-12-18).
91
92    Encode international domain names with IDNA encoding.
93
94    Adapted to different Mozilla 'place' URIs.
95
96 Version 4.4.0 (2011-01-07).
97
98    Moved BeautifulSoup.py and subproc.py from Robots/ to the top-level
99    directory.
100
101    Moved parse_html.py and its submodules to a separate parse_html package.
102
103    Added statistics code to parse_html, got a statistics on parser
104    success/failrure rate, reordered parsers.
105
106    Removed old cruft.
107
108 Version 4.3.1 (2011-01-03).
109
110    Get favicon before HTML redirect (refresh).
111
112 Version 4.3.0 (2011-01-01).
113
114    Robots no longer have one global temporary file - there are at least two
115    (html and favicon), and in the future there will be more for asynchronous
116    robot(s) that would test many URLs in parallel.
117
118 Version 4.2.2.
119
120     Added HTML Parser based on lxml.
121
122 Version 4.2.1 (2010-08-12).
123
124    Added HTML Parser based on html5 library.
125
126 Version 4.2.0 (2010-08-11).
127
128    New storage: json; it allows to load and store Mozilla (Firefox) backup
129    files.
130
131 Version 4.1.2
132
133    Process http error 307 as a temporary redirect.
134
135 Version 4.1.1 (2008-03-10)
136
137    Catch and report all errors.
138
139    Consider application/xhtml+xml as HTML.
140
141    Better handling of exceptions while looking up the icon.
142
143    Recode HTML entities.
144
145    Always use utf-8 as the default encoding.
146
147 Version 4.1.0 (2008-01-14)
148
149    Parser for HTML based on BeautifulSoup.
150
151    Changed User-agent header: I saw a number of sites that forbid
152    "Mozilla compatible" browsers. Added a number of fake headers to pretend
153    this is a real web-browser - there are still stupid sites
154    that are trying to protect themselves from robots by analyzing headers.
155
156    Handle redirects while looking for the icon.
157
158    Handle float timeouts in HTML redirects.
159
160    Minimal required version of Python is 2.5 now.
161
162 Version 4.0.0 (2007-10-20)
163
164    Extended support for Mozilla: charset and icon in bookmarks.
165    Use the charset to add Accept-Charset header.
166    Retrieve favicon.ico (or whatever <link> points to) and store it.
167
168    The project celebrates 10th anniversary!
169
170 Version 3.4.1 (2005-01-29)
171
172    Updated to Python 2.4. Switched from CVS to Subversion.
173
174 Version 3.4.0 (2004-09-23)
175
176    Extended support for Mozilla: keywords in bookmarks.
177    Updated to m_lib version 1.2.
178
179 Version 3.3.2
180
181    parse_html.py can now recode unicode entities in titles.
182
183 Version 3.3.0
184
185    Required Python 2.2.
186
187    HTML parser. If the protocol is HTTP, and there is Content-Type header, and
188    content type is text/html, the object is parsed to extract its title; if
189    the Content-Type header has charset, or if the HTML has <META> with
190    charset, the title is converted from the given charset to the default
191    charset. The <HEADER> is also parsed to extract <META> tag with redirect,
192    if any.
193
194 Version 3.0
195
196    Complete rewrite from scratch. Created mechanism for pluggable storage
197    managers, writers (DB dumpers/exporters) and robots.