Category: Python 爬蟲

一个用沙发客环游了世界600天的女汉子告诉你这个

作者:Ella三黑 链接:https://www.zhihu.com/question/22020197/answer/107449308 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 一个用沙发客环游了世界600天的女汉子告诉你这个 http://www.couchsurfing.com/当然是这个国际沙发客网站最靠谱了 顺便我还可以教你成为环球沙发客 <img src=”https://pic4.zhimg.com/5884c2a0341800e78251eecf460b67f7_b.jpg” data-rawwidth=”1920″ data-rawheight=”1080″ class=”origin_image zh-lightbox-thumb” width=”1920″ data-original=”https://pic4.zhimg.com/5884c2a0341800e78251eecf460b67f7_r.jpg”> 目录: 1.开个人帐户 2.开始旅行 3.查看沙发主人的个人信息 4.如何选择对的沙发客Host 5.发沙发客请求 6.沙发请求被接受,开始与沙发主进行交流 7.跟Host,或者跟他的家人相处 8.给沙发主留评价 第一步:开个人帐户 在http://www.couchsurfing.com/建立你的个人帐户信息尽量100%完善,尽量多上传你近期的照片,个人照和集体照。这样的话,沙发主才会更好的了解你,并放心去接待你。 PS:最近收到一些网友说,要交25美金后才能申请,这一条款在2012年没有要求。不过这是一个通过信用卡的认证方式,可以提高你个人的信誉。 <img src=”https://pic4.zhimg.com/868587e11d8d4c6e92ea76643927599f_b.jpg” data-rawwidth=”2048″ data-rawheight=”1365″ class=”origin_image zh-lightbox-thumb” width=”2048″ data-original=”https://pic4.zhimg.com/868587e11d8d4c6e92ea76643927599f_r.jpg”> 第二步:开始旅行 如果下星期你将前往某一个国家旅行,我们拿意大利罗马为例。首先点击‘Surf’。接下来这里有三小步骤: A、 在‘Plan a trip’中,填上:Rome,以及填好到达,以及离开日期,然后点击‘Continue’。 B、 在’Addtripdetails’中,要求填上你到罗马想做什么。为了让我选择的沙发主接待我,一般我会这样写道: Hi,I am Ella, my real Chinese name is ****. I am a…

Continue reading 一个用沙发客环游了世界600天的女汉子告诉你这个

MongoDB 基礎入門教學:MongoDB Shell 篇

這裡教大家如何透過 MongoDB shell(mongo)來使用 MongoDB 資料庫。 mongo 是一個用來操作 MongoDB 的互動式 JavaScript 介面,您可以使用它來查詢(query)或更新(update)資料庫中的資料,另外也可以進行一些資料庫的管理動作。   在使用 mongo 之前,請先安裝好 MongoDB 資料庫,安裝方式請參考: Windows:在 Windows 中安裝 MongoDB 資料庫 Ubuntu Linux:在 Ubuntu Linux 中安裝 MongoDB 資料庫 Mac OS X:在 Mac OS X 中安裝 MongoDB 資料庫 開始使用 mongo 當您安裝好 MongoDB 之後,可以執行 mongo 以 MongoDB Shell 來連線到 MongoDB: mongo 如果在 Windows 的命令提示字元中,執行的時候要加上 .exe 副檔名,必要時指定其路徑。 如果沒有加上任何參數,mongo 指令預設會連線到 localhost 的 27017 連接埠,如果要改變主機與連接埠,可以參考 mongo Shell Reference Page。 在 MongoDB Shell 環境中,都是以指令來進行操作的,操作的方式跟一般的…

Continue reading MongoDB 基礎入門教學:MongoDB Shell 篇

Python PyCharm的快捷鍵 (精簡)

Python PyCharm的快捷鍵 (精簡) 根據Wiki說明,快速新增幾個關鍵字: 1. 快捷鍵 (快速鍵, meta key) 2. 訪問鍵 (access key) 針對寫程式的部分,先快速入門記下可能常用的快捷鍵,如果想要更多詳細的資訊,可以查詢有關於PyCharm Keymap。Python PyCharm目前需要的快捷鍵如下: a) Ctrl + Alt + Space -> 顯示提示 b) Ctrl + / -> 註解程式碼 c) Alt + / -> 自動補齊程式碼 (程式碼是將之前寫過的程式碼補齊) d) Ctrl + Shift + Enter -> 完整語句完成 e) Ctrl + F1 -> 顯示錯誤描述或警告資訊 f) Ctrl + 滑鼠左鍵 -> 追程式碼用 g) Ctrl…

Continue reading Python PyCharm的快捷鍵 (精簡)

cheapflights

https://global.cheapflights.com/flight-search/TPE-PVG/2017-11-30/1adults/?sort=bestflight_a   https://global.cheapflights.com/flight-search/TPE-PVG/2017-11-30/1adults/?sort=price_a   https://global.cheapflights.com/flight-search/TPE-PVG/2017-11-30/1adults/?sort=duration_a   https://global.cheapflights.com/search/suggest/?s=sha&t=o&v=1

Continue reading cheapflights

selenium – cdint

from selenium import webdriver browser = webdriver.Chrome() browser.get(‘http://cdict.net’) input_first = browser.find_element_by_id(‘q’) input_second = browser.find_element_by_css_selector(‘#q’) input_third = browser.find_element_by_xpath(‘//*[@id=”q”]’) print(input_first, input_second, input_third) browser.close()

Continue reading selenium – cdint

selenium – baidu

from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.common.keys import Keys from selenium.webdriver.support import expected_conditions as EC from selenium.webdriver.support.wait import WebDriverWait browser = webdriver.Chrome() try: browser.get(‘https://www.baidu.com’) input = browser.find_element_by_id(‘kw’) input.send_keys(‘Python’) input.send_keys(Keys.ENTER) wait = WebDriverWait(browser, 10) wait.until(EC.presence_of_element_located((By.ID,’content_left’))) print(browser.current_url) print(browser.get_cookies()) print(browser.page_source) finally: browser.close()

Continue reading selenium – baidu

[爬蟲實戰] 如何使用Python 爬蟲 (Python Crawler) 下載Youtube 影片

[爬蟲實戰] 如何使用Python 爬蟲 (Python Crawler) 下載Youtube 影片     import requests res = requests.get(‘https://www.youtube.com/watch?v=5yAU52qfYuU’) print(res.text) import re m = re.search(‘layer.config = ({.*?});’,res.text) print(m.group(1)) import json jd = json.loads(m.group(1)) print(jd[“args”][“adaptive_fmts”]) import urllib from urllib.parse import urlparse parsed = urlparse(jd[“args”][“adaptive_fmts”]) a = urllib.parse.parse_qs(jd[“args”][“adaptive_fmts”]) print(a[‘url’][0]) import shutil res2 = requests.get(a[‘url’][0], stream = True) f = open(‘b.mp4’, ‘wb’) shutil.copyfileobj(res2.raw,…

Continue reading [爬蟲實戰] 如何使用Python 爬蟲 (Python Crawler) 下載Youtube 影片