by Leszek SP6CIK(A52CI), Janusz SP9FIH(A52P)
Bhutan by A52CI and A52P WebPage
Italian Dxpedition Team TT8 WebPage
Log check and QSL request
by DJ9RR, EI2II, EI2JD, EI3ISB, EI3IXB, EI4HH, EI5GM,EI5GSB, EI6FR, EI8KN, EI9HQ, EI9FBB and PA3EWP.
8 stations from 160m -10m on CW, SSB and Digital.
CB0ZEW Remote Station(NexGenRiB) WSJT-X F/H Mode
CB0ZA On Island Station MSHV F/H Mode
http://momo.gmobb.jp/fcz_ac1/
http://momo.gmobb.jp/fcz_ac2/
しかし、多数のファイルをポチポチとダウンロードするのは手間が
かかりますので、Pythonで自動ダウンロードするプログラムを書き
ました。私の書いたものはちょっとダサいものですが、1回動かせば
もう動かすことはほぼないプログラムですので、気の利いたコーディ
ングにするモチベーションもあがりません。作りっぱなしのプログラ
ムそのままでの公開です。
以下のプログラムをコピーして、ウインドウズのメモ帳などにペース
トして。適当なプログラム名に拡張子として".py"を付けて(例えば、
fcz_download.pyというファイル名で)、pdfファイルをダウンロード
するフォルダに保存しておきます。
プログラムをダブルクリックすれば、pdfファイルのダウンロードが
始まります。
プログラムの中心部分は下のページからの借用です。このプログラム
は素晴らしいものです。
https://degitalization.hatenablog.jp/entry/2020/08/02/193536
準備
(1) Pythonのインストール
(2) コンソール画面でpy -m pip install beautifulsoup4と入力して
beautifulsoupをインストールする。
(3) py -m pip install urllibと入力してurllibをインストールする。
# ---- プログラム本体はここから下 ---- from bs4 import BeautifulSoup import urllib.request as req import urllib base_url1 = "http://momo.gmobb.jp/fcz_ac1/" url1 = base_url1 + "001-050.htm" url2 = base_url1 + "051-100.html" url3 = base_url1 + "101-150.htm" url4 = base_url1 + "151-200.htm" base_url2 = "http://momo.gmobb.jp/fcz_ac2/" url5 = base_url2 + "175-200.htm" url6 = base_url2 + "201-250.htm" url7 = base_url2 + "251-300.html" url8 = base_url2 + "cirq_contents.htm" def download(URL): link_list =[] for link in result: href = link.get("href") link_list.append(href) pdf_list = [temp for temp in link_list if temp.endswith('pdf')] for filename in pdf_list: urlData = URL + urllib.parse.quote(filename) new_filename = filename[filename.find("/")+1:] #print(filename) #print(urlData) print(new_filename) data = req.urlopen(urlData).read() with open(new_filename, mode="wb") as f: f.write(data) for url in [url1, url2, url3, url4]: res = req.urlopen(url) soup = BeautifulSoup(res, "html.parser") result = soup.select("a[href]") download(base_url1) for url in [url5, url6, url7, url8]: res = req.urlopen(url) soup = BeautifulSoup(res, "html.parser") result = soup.select("a[href]") download(base_url2)