]> git.phdru.name Git - bookmarks_db.git/blob - doc/ChangeLog
Feat(Robots/bkmk_robot_base): Process "data:image/" icons
[bookmarks_db.git] / doc / ChangeLog
1 Version 5.2.2 (2024-03-03)
2
3    Robots/bkmk_rrequests: Add request headers.
4
5    Robots/bkmk_robot_base: Process "data:image/" icons.
6
7 Version 5.2.1 (2024-03-02)
8
9    Speedup second access through proxy.
10
11 Version 5.2.0 (2024-03-02)
12
13    For the robot based on requests allow to use a proxy.
14
15 Version 5.1.0 (2024-03-01)
16
17    Robot based on requests.
18
19 Version 5.0.0 (2023-11-22)
20
21    Python 3.
22
23    Report redirects and set URLs.
24
25    Delete URLs.
26
27    Remove BeautifulSoup.py (use globally installed).
28
29 Version 4.6.0 (2014-07-06)
30
31    Split simple robot: separate network operations and
32    URL handling/HTML parsing.
33
34    Change parse_html to parse strings, not files.
35
36    Split parse_html/__init__.py into __main__.py.
37
38    Adapt JSON storage to recent Mozilla export format.
39
40    Add ChangeLog.
41
42    Allow parameters in BKMK_* environment variables; for example,
43    BKMK_ROBOT=forking:subproc=urllib or
44    BKMK_STORAGE=json:filename=bookmarks_db.json.
45
46    Pass subproc parameter to the subprocess to allow different robots.
47
48    Add a new robot based on urllib2.
49
50 Version 4.5.6 (2014-01-14)
51
52    Remove absolute directory ~/lib to make it portable.
53
54 Version 4.5.5 (2013-12-05)
55
56    Parse <meta charset="...">.
57
58 Version 4.5.4 (2013-11-23)
59
60    Published through git/gitweb.
61
62 Version 4.5.3 (2013-07-26)
63
64    Minor tweak in Makefile.
65
66    Switched to git.
67
68 Version 4.5.2 (2012-09-24)
69
70    Removed svn:keywords.
71
72    Handle redirects with codes 303 and 307.
73
74    Fixed a bug in handling place: URIs (do not append '//').
75
76 Version 4.5.1 (2011-12-28).
77
78    Read/write mozilla-specific date/time format in json storage.
79
80 Version 4.5.0 (2011-12-18).
81
82    Encode international domain names with IDNA encoding.
83
84    Adapted to different Mozilla 'place' URIs.
85
86 Version 4.4.0 (2011-01-07).
87
88    Moved BeautifulSoup.py and subproc.py from Robots/ to the top-level
89    directory.
90
91    Moved parse_html.py and its submodules to a separate parse_html package.
92
93    Added statistics code to parse_html, got a statistics on parser
94    success/failrure rate, reordered parsers.
95
96    Removed old cruft.
97
98 Version 4.3.1 (2011-01-03).
99
100    Get favicon before HTML redirect (refresh).
101
102 Version 4.3.0 (2011-01-01).
103
104    Robots no longer have one global temporary file - there are at least two
105    (html and favicon), and in the future there will be more for asynchronous
106    robot(s) that would test many URLs in parallel.
107
108 Version 4.2.2.
109
110     Added HTML Parser based on lxml.
111
112 Version 4.2.1 (2010-08-12).
113
114    Added HTML Parser based on html5 library.
115
116 Version 4.2.0 (2010-08-11).
117
118    New storage: json; it allows to load and store Mozilla (Firefox) backup
119    files.
120
121 Version 4.1.2
122
123    Process http error 307 as a temporary redirect.
124
125 Version 4.1.1 (2008-03-10)
126
127    Catch and report all errors.
128
129    Consider application/xhtml+xml as HTML.
130
131    Better handling of exceptions while looking up the icon.
132
133    Recode HTML entities.
134
135    Always use utf-8 as the default encoding.
136
137 Version 4.1.0 (2008-01-14)
138
139    Parser for HTML based on BeautifulSoup.
140
141    Changed User-agent header: I saw a number of sites that forbid
142    "Mozilla compatible" browsers. Added a number of fake headers to pretend
143    this is a real web-browser - there are still stupid sites
144    that are trying to protect themselves from robots by analyzing headers.
145
146    Handle redirects while looking for the icon.
147
148    Handle float timeouts in HTML redirects.
149
150    Minimal required version of Python is 2.5 now.
151
152 Version 4.0.0 (2007-10-20)
153
154    Extended support for Mozilla: charset and icon in bookmarks.
155    Use the charset to add Accept-Charset header.
156    Retrieve favicon.ico (or whatever <link> points to) and store it.
157
158    The project celebrates 10th anniversary!
159
160 Version 3.4.1 (2005-01-29)
161
162    Updated to Python 2.4. Switched from CVS to Subversion.
163
164 Version 3.4.0 (2004-09-23)
165
166    Extended support for Mozilla: keywords in bookmarks.
167    Updated to m_lib version 1.2.
168
169 Version 3.3.2
170
171    parse_html.py can now recode unicode entities in titles.
172
173 Version 3.3.0
174
175    Required Python 2.2.
176
177    HTML parser. If the protocol is HTTP, and there is Content-Type header, and
178    content type is text/html, the object is parsed to extract its title; if
179    the Content-Type header has charset, or if the HTML has <META> with
180    charset, the title is converted from the given charset to the default
181    charset. The <HEADER> is also parsed to extract <META> tag with redirect,
182    if any.
183
184 Version 3.0
185
186    Complete rewrite from scratch. Created mechanism for pluggable storage
187    managers, writers (DB dumpers/exporters) and robots.