導航:首頁 > 編程語言 > python爬蟲ebay

python爬蟲ebay

發布時間:2023-05-21 17:29:08

python程序實現簡單計算機項目目標怎麼寫

打開APP

python簡單程序實例-python簡單項目實例
2020-10-28 20:39:43

編程大樂趣

碼齡10年

關注
語言多元化是PayPal編程文化中一個重要的組成部分。在C++和java長期流行的同時,更多的團隊選擇了Jva和Scala。同時,Braintree的收購也引入了一個久經世故的Ruby社區。Python作為一門特別的語言,在eBay和PayPal有很長的歷史。而且其流行程度依然有增不減。

eBay的開發者支持Python這個應用於基層領域多年的語言。甚至在eBay管理層官方支持Python以前,技術人員就開始使用Python。我在幾年前加入PayPal並選擇Python來寫內部應用,然而,我卻發現了PayPal中將近15年以前的Python代碼。

目前,Python 支撐著 超過50個項目, 包括:

功能和產品型, 例如 eBay Now 和 RedLaser運營和基礎設施型**, 從開放的 OpenStack 到專有設施中間層服務和應用型**, 例如 PayPal 用來設定價格以及檢測用戶可用功能的那個(服務/應用)監測代理和介面*型*, 用於涉及到部署和安全的一些用例批處理任務*型*, 例如數據導入,價格調整,及其它項目以及不計其數的開發者工具

在接下來的文章里我將詳細介紹那些使得 eBay 和 PayPal 的 Python 生態系統從2011年的不超過25個工程師到2014年超過260個工程師所使用的技術和舉措。對於本文,我則會專注於10個不得不予以揭露的關於 eBay 和 PayPal 的企業環境的謬誤。

謬誤 #1: Python 是一門新語言

伴隨著所有的初創公司正在使用它以及孩子們最近也在學習它的事實,這個謬誤為何仍然存在是可以理解的。實際上 Python 已經 超過23歲了, 它最初發布於1991年, 早於 HTTP 1.0協議 5年且早於 Java 4年. 目前比較有著名的很早就使用 Python 的例子是在1996年: Google 的第一個成功的網路爬蟲。

❷ 10個讓你愛不釋手的Python開源框架

如果你正在學習python,那麼這10個開源框架,你可千萬別錯過,這些框架包括事件I/O,OLAP,Web開發,高性能網路通信,測試,爬蟲等。雖說不上是全都有,但也足夠滿足你了。

0.Django:Python Web應用開發框架

眾所周知,Python下有許多款不同的 Web 框架。而其中,Django是最具代表性之一,許多成功的網站和APP都基於Django。

Django是是一個全能型框架,它最出名的是其全自動化的管理後台:只需要使用起ORM,做簡單的對象定義,它就能自動生成資料庫結構、以及全功能的管理後台。

相關推薦:《Python教程》

1.Cubes:輕量級Python OLAP框架

Cubes是一個輕量級Python框架,包含OLAP、多維數據分析和瀏覽聚合數據(aggregated data)等工具。

2.Kartograph.py:創造矢量地圖的輕量級Python框架

Kartograph是一個Python庫,用來為ESRI生成SVG地圖。Kartograph.py目前仍處於beta階段,你可以在virtualenv環境下來測試。

3.Pulsar:Python的事件驅動並發框架

Pulsar是一個來自eBay的高擴展性、高可用性、基於事件驅動的開源實時分析平台和流處理框架,它能夠實時收集和處理用戶行為和業務事件。

4.Tornado:非同步非阻塞IO的Python Web框架

Tornado的全稱是Torado Web Server,傳說中性能高高的框架。Tornado 是一個很好的框架,支持非同步處理的功能,這是它的特點,其他框架不支持。另外一點是,Tornado 的設計似乎更注重 RESTful URL。

5.Bottle:微型Python Web框架

Bottle 和 Flask 都屬於輕量級的 Web 框架。說微型,是因為它只有一個文件,除Python標准庫外,它不依賴於任何第三方模塊。6.Web2py:全棧式Web框架

Web2py是 Google 在 web.py 基礎上二次開發而來的,兼容 Google App Engine 。是一個為Python語言提供的全功能Web應用框架,旨在敏捷快速的開發Web應用,具有快速、安全以及可移植的資料庫驅動的應用。

7.Falcon:構建雲API和網路應用後端的高性能Python框架

Falcon是一個構建雲API的高性能Python框架,是一個面向Hadoop的數據集和處理過程的管理平台。它鼓勵使用REST架構風格,盡可能以最少的力氣做最多的事情。

8.Diesel:基於Greenlet的事件I/O框架

Diesel提供一個整潔的API來編寫網路客戶端和伺服器。支持TCP和UDP。非阻塞I/O使得diesel非常快速並且容易擴展。

greenlets使得diesel有了unwind(to(callbacks(no)))。nose使得測試變得容易。最後,Flask使得你不需要寫一個新的網路框架來使用diesel。

9.Flask:一個用Python編寫的輕量級Web應用框架

Flask同樣也是一個Python編寫的Web 微框架,能夠快速實現一個網站或Web服務。屬於輕量級Web應用框架。花很少的成本就能夠開發一個簡單的網站。非常適合初學者學習。Flask 框架學會以後,可以考慮學習插件的使用。

Flask也被稱為「microframework」,因為它使用簡單的核心,用extension增加其他功能。

❸ Python 有像WordPress這樣的開源程序么

python的開源程序很多,除了wordpress外還有如下:
Django: Python Web應用開發框架
Django 應該是最出名的Python框架,GAE甚至Erlang都有框架受它影響。Django是走大而全的方向,它最出名的是其全自動化的管理後台:只需要使用起ORM,做簡單的對象定義,它就能自動生成資料庫結構、以及全功能的管理後台。
Diesel:基於Greenlet的事件I/O框架
Diesel提供一個整潔的API來編寫網路客戶端和伺服器。支持TCP和UDP。
Flask:一個用Python編寫的輕量級Web應用框架
Flask是一個使用Python編寫的輕量級Web應用框架。基於Werkzeug WSGI工具箱和Jinja2 模板引擎。Flask也被稱為「microframework」,因為它使用簡單的核心,用extension增加其他功能。Flask沒有默認使用的資料庫、窗體驗證工具。
Cubes:輕量級Python OLAP框架
Cubes是一個輕量級Python框架,包含OLAP、多維數據分析和瀏覽聚合數據(aggregated data)等工具。
Kartograph.py:創造矢量地圖的輕量級Python框架
Kartograph是一個Python庫,用來為ESRI生成SVG地圖。Kartograph.py目前仍處於beta階段,你可以在virtualenv環境下來測試。
Pulsar:Python的事件驅動並發框架
Pulsar是一個事件驅動的並發框架,有了pulsar,你可以寫出在不同進程或線程中運行一個或多個活動的非同步伺服器。
Web2py:全棧式Web框架
Web2py是一個為Python語言提供的全功能Web應用框架,旨在敏捷快速的開發Web應用,具有快速、安全以及可移植的資料庫驅動的應用,兼容Google App Engine。
Falcon:構建雲API和網路應用後端的高性能Python框架
Falcon是一個構建雲API的高性能Python框架,它鼓勵使用REST架構風格,盡可能以最少的力氣做最多的事情。
Dpark:Python版的Spark
DPark是Spark的Python克隆,是一個Python實現的分布式計算框架,可以非常方便地實現大規模數據處理和迭代計算。DPark由豆瓣實現,目前豆瓣內部的絕大多數數據分析都使用DPark完成,正日趨完善。
Buildbot:基於Python的持續集成測試框架
Buildbot是一個開源框架,可以自動化軟體構建、測試和發布等過程。每當代碼有改變,伺服器要求不同平台上的客戶端立即進行代碼構建和測試,收集並報告不同平台的構建和測試結果。
Zerorpc:基於ZeroMQ的高性能分布式RPC框架
Zerorpc是一個基於ZeroMQ和MessagePack開發的遠程過程調用協議(RPC)實現。和 Zerorpc 一起使用的 Service API 被稱為 zeroservice。Zerorpc 可以通過編程或命令行方式調用。
Bottle: 微型Python Web框架
Bottle是一個簡單高效的遵循WSGI的微型python Web框架。說微型,是因為它只有一個文件,除Python標准庫外,它不依賴於任何第三方模塊。
Tornado:非同步非阻塞IO的Python Web框架
Tornado的全稱是Torado Web Server,從名字上看就可知道它可以用作Web伺服器,但同時它也是一個Python Web的開發框架。最初是在FriendFeed公司的網站上使用,FaceBook收購了之後便開源了出來。
webpy: 輕量級的Python Web框架
webpy的設計理念力求精簡(Keep it simple and powerful),源碼很簡短,只提供一個框架所必須的東西,不依賴大量的第三方模塊,它沒有URL路由、沒有模板也沒有資料庫的訪問。
Scrapy:Python的爬蟲框架
Scrapy是一個使用Python編寫的,輕量級的,簡單輕巧,並且使用起來非常的方便。

❹ 花了2萬多買的Python70個項目,現在分享給大家,練手進廠靠它了

前言:

不管學習哪門語言都希望能做出實際的東西來,這個實際的東西當然就是項目啦,不用多說大家都知道學編程語言一定要做項目才行。

這里整理了70個Python實戰項目列表,都有完整且詳細的教程,你可以從中選擇自己想做的項目進行參考學習練手,你也可以從中尋找靈感去做自己的項目。

1、【Python 圖片轉字元畫】

2、【200行Python代碼實現2048】

3、【Python3 實現火車票查詢工具】

4、【高德API+Python解決租房問題 】

5、【Python3 色情圖片識別】

6、【Python 破解驗證碼】

7、【Python實現簡單的Web伺服器】

8、【pygame開發打飛機 游戲 】

9、【Django 搭建簡易博客】

10、【Python基於共現提取《釜山行》人物關系】

11、【基於scrapy爬蟲的天氣數據採集(python)】

12、【Flask 開發輕博客】

13、【Python3 圖片隱寫術】

14、【Python 實現簡易 Shell】

15、【使用 Python 解數學方程】

16、【PyQt 實現簡易瀏覽器】

17、【神經網路實現手寫字元識別系統 】

18、【Python 實現簡單畫板】

19、【Python實現3D建模工具】

20、【NBA常規賽結果預測——利用Python進行比賽數據分析】

21、【神經網路實現人臉識別任務】

22、【Python文本解析器】

23、【Python3 & OpenCV 視頻轉字元動畫】

24、【Python3 實現淘女郎照片爬蟲 】

25、【Python3實現簡單的FTP認證伺服器】

26、【基於 Flask 與 MySQL 實現番劇推薦系統】

27、【Python 實現埠掃描器】

28、【使用 Python 3 編寫系列實用腳本】

29、【Python 實現康威生命 游戲 】

30、【川普撞臉希拉里(基於 OpenCV 的面部特徵交換) 】

31、【Python 3 實現 Markdown 解析器】

32、【Python 氣象數據分析 -- 《Python 數據分析實戰》】

33、【Python實現鍵值資料庫】

34、【k-近鄰演算法實現手寫數字識別系統】

35、【ebay在線拍賣數據分析】

36、【Python 實現英文新聞摘要自動提取 】

37、【Python實現簡易區域網視頻聊天工具】

38、【基於 Flask 及爬蟲實現微信 娛樂 機器人】

39、【Python實現Python解釋器】

40、【Python3基於Scapy實現DDos】

41、【Python 實現密碼強度檢測器】

42、【使用 Python 實現深度神經網路】

43、【Python實現從excel讀取數據並繪製成精美圖像】

44、【人機對戰初體驗:Python基於Pygame實現四子棋 游戲 】

45、【Python3 實現可控制肉雞的反向Shell】

46、【Python打造漏洞掃描器 】

47、【Python應用馬爾可夫鏈演算法實現隨機文本生成】

48、【數獨 游戲 的Python實現與破解】

49、【使用Python定製詞雲】

50、【Python開發簡單計算器】

51、【Python 實現 FTP 弱口令掃描器】

52、【Python實現Huffman編碼解壓縮文件】

53、【Python實現Zip文件的暴力破解 】

54、【Python3 智能裁切圖片】

55、【Python實現網站模擬登陸】

56、【給Python3爬蟲做一個界面.妹子圖網實戰】

57、【Python 3 實現圖片轉彩色字元】

58、【自聯想器的 Python 實現】

59、【Python 實現簡單濾鏡】

60、【Flask 實現簡單聊天室】

61、【基於PyQt5 實現地圖中定位相片拍攝位置】

62、【Python實現模板引擎】

63、【Python實現遺傳演算法求解n-queens問題】

64、【Python3 實現命令行動態進度條】

65、【Python 獲取掛號信息並郵件通知】

66、【Python實現java web項目遠端自動化更新部署】

67、【使用 Python3 編寫 Github 自動周報生成器】

68、【使用 Python 生成分形圖片】

69、【Python 實現 Redis 非同步客戶端】

70、【Python 實現中文錯別字高亮系統】

最後:

以上項目列表希望可以給你在Python學習中帶來幫助~

獲取方式:轉發 私信「1」

❺ scrapy-redis分布式爬蟲啟動為什麼會等待

scrapy-redis所實現的兩種分布式:爬蟲分布式以及item處理分布式。分別是由模塊scheler和模塊pipelines實現。

一、Scrapy-redis各個組件介紹

(I) connection.py

負責根據setting中配置實例化redis連接。被pefilter和scheler調用,總之涉及到redis存取的都要使用到這個模塊。

(II) pefilter.py

負責執行requst的去重,實現的很有技巧性,使用redis的set數據結構。但是注扒正意scheler並不使用其中用於在這個模塊中實現的pefilter鍵做request的調度,而是使用queue.py模塊中實現的queue。

當request不重復時,將其存入到queue中,調度時將其彈出。

(III)queue.py

其作用如II所述,但是這里實現了三種方式的queue:

FIFO的SpiderQueue,SpiderPriorityQueue,以及LIFI的SpiderStack。默認使用的是第二中,這也就是出現之前文章中所分析情況的原因(鏈接)。

(IV)pipelines.py

這是是用來實現分布式處理的作用。它將Item存儲在redis中以實現分布式處理。

另外可以發現,同樣是編寫pipelines,在這里的編碼實現不同於文章(鏈接:)中所毀此謹分析的情況,由於在這里需要讀取配置,所以就用到了from_crawler()函數。

(V)scheler.py

此擴展是對scrapy中自帶的scheler的替代(在settings的SCHEDULER變數中指出),正是利用此擴展實現crawler的分布式調度。其利用的數據結構來自於queue中實現的數據結構。

scrapy-redis所實現的兩種分布式:爬蟲分布式以及item處理分布式就是由模塊scheler和模塊pipelines實現。上述其它模塊作為為二者輔助的功能模塊。

(VI)spider.py

設計的這個spider從redis中讀取要爬的url,然後執行爬取,若爬纖基取過程中返回更多的url,那麼繼續進行直至所有的request完成。之後繼續從redis中讀取url,循環這個過程。

二、組件之間的關系

三、scrapy-redis實例分析

(1)spiders/ ebay_redis.py

classEbayCrawler(RedisMixin,CrawlSpider):

"""Spiderthat reads urls from redis queue (mycrawler:start_urls)."""

name = 'ebay_redis'

redis_key = ' ebay_redis:start_urls'

rules = (

# follow all links

# Rule(SgmlLinkExtractor(),callback='parse_page', follow=True),

Rule(sle(allow=('[^s]+/itm/', )), callback='parse_item'),

)

#該方法是最關鍵的方法,該方法名以下劃線開頭,建立了和redis的關系

def _set_crawler(self, crawler):

CrawlSpider._set_crawler(self, crawler)

RedisMixin.setup_redis(self)

# 解析sku頁面

defparse_item(self,response):

sel =Selector(response)

base_url =get_base_url(response)

item = EbayphoneItem()

print base_url

item['baseurl'] =[base_url]

item['goodsname'] =sel.xpath("//h1[@id='itemTitle']/text()").extract()

return item

該類繼承了RedisMixin(scrapy_redis/spiders.py中的一個類)和CrawlSpider,載入配置文件的各項,建立和redis的關聯,同時進行抓取後的解析。關鍵方法為_set_crawler(self, crawler),關鍵屬性是redis_key,該key如果沒有初始化則默認為spider.name:start_urls

_set_crawler()方法是如何被調用的:

scrapy/crawl.py/Crawler:crawl() ->

scrapy/crawl.py/Crawler:_create_spider () ->

CrawlSpider:from_crawler() –>

scrapy/spiders/Spider:from_crawler() ->

ebay_redis.py :_set_crawler()

(2)setting.py

SPIDER_MODULES= ['example.spiders']

NEWSPIDER_MODULE= 'example.spiders'

ITEM_PIPELINES = {

'example.pipelines.ExamplePipeline':300,

#通過配置下面該項RedisPipeline'會將item寫入key為

#spider.name:items的redis的list中,供後面的分布式處理item

'scrapy_redis.pipelines.RedisPipeline':400,

}

SCHEDULER= "scrapy_redis.scheler.Scheler"

#不清理redisqueues, 允許暫停或重啟crawls

SCHEDULER_PERSIST= True

SCHEDULER_QUEUE_CLASS= 'scrapy_redis.queue.SpiderPriorityQueue'

#該項僅對queueclass is SpiderQueue or SpiderStack生效,阻止spider被關閉的最大空閑時間

SCHEDULER_IDLE_BEFORE_CLOSE= 10

#連接redis使用

REDIS_HOST = '123.56.184.53'

REDIS_PORT= 6379

(3)process_items.py:

defmain():

pool =redis.ConnectionPool(host='123.56.184.53', port=6379, db=0)

r = redis.Redis(connection_pool=pool)

while True:

# process queue as FIFO, change `blpop`to `brpop` to process as LIFO

source, data =r.blpop(["ebay_redis:items"])

item = json.loads(data)

try:

print u"Processing: %(name)s<%(link)s>" % item

except KeyError:

print u"Error procesing:%r" % item

if__name__ == '__main__':

main()

該模塊是從redis對應的list中取出item,進行處理,可以運行多個進程分布式處理items

(4)執行過程如下:

首先在redis伺服器端打開redis服務:

./redis-server

其次執行

./redis-cli lpush ebaycrawler:start_urlshttp://www.ebay.com/sch/Cell-Phones-Smartphones-/9355/i.html

然後運行爬蟲:

scrapy runspiderebay_redis.py

可以執行多個爬蟲,同時對ebay_redis:start_urls中的url進行分布式爬取,爬取後的結果都存入了ebay_redis:items的list中,供後續再次處理

最後可以查看items隊列中的內容

./redis-cli llen ebay_redis:items 可以看到該items中總的個數

❻ web2.0

什麼是Web 2.0
2005-11-22 10:50 來源:互聯網周刊 作者:Tim O'Reilly [列印] [關閉]

2001年秋天互聯網公司(dot-com)泡沫的破滅標志著互聯網的一個轉折點。許多人斷定互聯網被過分炒作,事實上網路泡沫和相繼而來的股市大衰退看起來像是所有技術革命的共同特徵。股市大衰退通常標志著蒸蒸日上的技術已經開始佔領中央舞台。假冒者被驅逐,而真正成功的故事展示了它們的力量,同時人們開始理解了是什麼將一個故事同另外一個區分開來。

「Web 2.0」的概念開始於一個會議中,展開於O'Reilly公司和MediaLive國際公司之間的頭腦風暴部分。所謂空凱互聯網先驅和O'Reilly公司副總裁的戴爾·多爾蒂(Dale Dougherty)注意到,同所謂的「崩潰」迥然不同,互聯網比其他任何時候都更重要,令人激動的新應用程序和網站正在以令人驚訝的規律性涌現出來。更重要的是,那些倖免於當初網路泡沫的公司,看起來有一些共同之處。那麼會不會是互聯網公司那場泡沫的破滅標志了互聯網的一種轉折,以至於呼籲「Web 2.0」的行動有了意義?我們都認同這種觀點,Web 2.0會議由此誕生。

在那個會議之後的一年半的時間里,「Web 2.0」一詞已經深入人心,從Google上可以搜索到950萬以上的鏈接。但是,至今關於鍵則Web 2.0的含義仍存在極大的分歧,一些人將Web 2.0貶低為毫無疑義的一個行銷炒作口號,而其他一些人則將之理解為一種新的傳統理念。

本文就是來嘗試澄清Web 2.0本來意義。

在我們當初的頭腦風暴中,我們已經用一些例子,公式化地表達了我們對Web 2.0的理解:
Web 1.0 Web 2.0
DoubleClick Google AdSense
Ofoto Flickr
Akamai BitTorrent
mp3.com Napster
大英網路全書在線(Britannica Online) 維基網路全書(Wikipedia)
個人網站 博客(blogging)
evite upcoming.org和EVDB
域名投機 搜索引擎優化
頁面瀏覽數 每次點擊成本
屏幕抓取(screen scraping) 網路服務(web services)
發布 參與
內容管理系統 維基
目錄(分類) 標簽(「分眾分類」,folksonomy)
粘性 聚合

這個列表還會不斷繼續下去。但是到底是什麼,使得我們認定一個應用程序或一種方式為作所謂「Web 1.0」,而把另外一個叫做「Web 2.0」呢?(這個問題尤為緊迫,因為Web 2.0的觀念已經傳播的如此廣泛,以至於很多公司正在將這個詞加到他們的行銷炒作中,但卻沒有真正理解其含義。同時這個問題也尤為困難,因為許多嗜好口號的創業公司顯然不是Web 2.0,而一些我們認為是Web 2.0的應用程序,例如Napster和BitTorrent,甚至不是真正適當的網路程序!)我們首先來探討一些原則,這些原則是通過Web 1.0的一些成功案例,以及一些最為有趣的新型應用程序來體現的。

1. 互聯網作為平台

正如許多重要的理念一樣,Web 2.0沒有一個明確的界限,而是一個重力核心。不妨將Web 2.0視作一組原則和實踐,由此來把距離核心或遠或近的稿虧棚網站組成為一個類似太陽系的網路系統,這些網站或多或少地體現著Web 2.0的原則。

圖1為Web 2.0的「模擬圖」,該圖是在名為「O'Reilly的朋友」(Friend Of O』reilly, FOO)的會議的一個研討會上產生的。這個圖基本上仍處於演化階段,但已經描繪出了 從Web 2.0核心理念中衍生出的許多概念。

例如,在2004年10月的第一次Web 2.0的會議上,約翰·巴特利(John Battelle)和我在我們各自的開場白中列舉了一組初步的原則。

這些原則中的第一條就是「互聯網作為平台」。這也曾是Web 1.0的寵兒網景公司(Netscape)的戰鬥口號,而網景在同微軟的大戰中隕落了。此外,我們早先的Web 1.0的楷模中的兩個,DoubleClick和Akamai公司,皆是將網路當作平台的先驅。人們往往不認為這是一種網路服務,但事實上,廣告服務是第一個被廣泛應用的網路服務,同時也是第一個被廣泛應用的混合處理(mashup),如果用另一個近來流行的詞來說的話。每個旗幟廣告(banner ad)都是用來在兩個網站之前無縫合作,向位於另外一台計算機上的讀者傳遞一個整合好的頁面。

Akamai也將網路看作平台,並且在一個更深入的層次上,來搭建一個透明的緩存和內容分發網路,以便降低寬頻的擁塞程度。

雖然如此,這些先驅提供了有益的對比,因為後來者遇到同樣問題的時候,可以將先驅們的解決方案進一步延伸,從而對新平台本質的理解也更為深刻了。DoubleClick和Akamai都是Web 2.0的先驅,同時我們也可以看到,可以通過引入更多Web 2.0的設計模式,來實現更多的應用。

讓我們對這三個案例中的每一個都作一番深究,來探討其間的一些本質性的差別。

Netscape 對 Google

如果Netscape可以稱為Web 1.0的旗手,那麼Google幾乎可以肯定是Web 2.0的旗手,只要看看他們的首次公開上市(IPO)是如何地揭示了各自的時代就清楚了。所以我們就從這兩個公司和其定位的差別入手。

Netscape以傳統的軟體摹本來勾勒其所謂「互聯網作為平台」:他們的旗艦產品是互聯網瀏覽器,一個桌面應用程序。同時,他們的戰略是利用他們在瀏覽器市場的統治地位,來為其昂貴的伺服器產品建立起市場。從理論上講,在瀏覽器中控制顯示內容和程序的標准,賦予了Netscape一種市場支配力,如同微軟公司在個人計算機市場上所享受的一樣。很像當初「自行的馬車」(horseless carriage)將汽車描繪為一種熟知事物的延伸,Netscape曾推銷一種網路桌面(webtop)來替代傳統的桌面(desktop),並且計劃藉助信息更新,以及由購買了Netscape伺服器的信息提供者來推送的各種小程序,來開發推廣這種網路桌面。

最終,瀏覽器和網路伺服器都變成了「日用品」,同時價值鏈條也向上移動到了在互聯網平台上傳遞的服務。

作為對比,Google則以天生的網路應用程序的角色問世,它從不出售或者打包其程序,而是以服務的方式來傳遞。客戶們直接或間接地為其所使用的服務向Google付費。原有軟體工業缺陷盪然無存。沒有了定期的軟體發布,只需要持續的改善。沒有了許可證或銷售,只需要使用。沒有了為了讓用戶在其設備上運行軟體而不得不進行的平台遷移,只需要搭建宏大的、由眾多個人計算機組成的、可伸縮的網路,其上運行開源操作系統,及其及自行研製的應用程序和工具,而公司之外的任何人則永遠無法接觸到這些東西。

在其底層,Google需要一種Netscape從未需要過的能力:資料庫管理。Google遠遠不只是一個軟體工具的集合,它是一個專業化的資料庫。沒有這些數據,那些工具將毫無用武之地;沒有這些軟體,數據也將無可控制。軟體許可證制度和對應用程序介面(API)的控制——上一個時代的法寶——已經毫不相關了,因為Google的軟體只需要執行而從不需要分發,也因為如果不具備收集和管理數據的能力,軟體本身就沒有什麼用處了。事實上,軟體的價值是同它所協助管理的數據的規模和活性成正比的。

Google的服務不是一個簡單的伺服器,雖然其服務是通過大規模的互聯網伺服器集合來傳遞的;其服務也不是一個瀏覽器,雖然這種服務是被用戶在瀏覽器中體驗到的。Google的旗艦產品——搜索服務,甚至不託管它讓用戶來搜尋的內容。很像一個電話通話過程,不僅發生在通話的兩端,而且發生在中間的網路上。作為用戶和其在線體驗的一個中介,Google作用於瀏覽器、搜索引擎和最終的內容伺服器之間的空間中。

雖然Netscape和Google都可以被描述為軟體公司,但顯然Netscape可以歸到Lotus,Microsoft,Oracle,SAP,以及其他發源於上個世紀八十年代軟體革命的那些公司所組成的軟體世界。而Google的同伴們,則是像eBay,Amazon,Napster,及至DoubleClick和Akamai這樣的互聯網公司。

DoubleClick對Overture和AdSense

同Google類似,DoubleClick是一個名副其實的互聯網時代的孩子。它把軟體作為一種服務,在數據管理方面具有核心競爭力,並且正如上文所述,它是一個早在連網路服務的名字還不曾有的時候,就已然開始其服務的先驅。然而,DoubleClick最終還是被其商業模式局限住了。它所貫徹的是九十年代的互聯網觀念。這種觀念圍繞著出版,而不是參與;圍繞著廣告客戶,而不是消費者,來進行操縱;圍繞著規模,認為互聯網會被如MediaMetrix等網路廣告評測公司尺度下的所謂頂級網站所統治。

結果是,DoubleClick得意地在其網站上引用道:「超過2000種的成功應用」。而相對比的是,Yahoo!公司的搜索市場(從前的Overture)和Google的AdSense產品,已經在為幾十萬的廣告客戶服務。

Overture和Google的成功源自於對克里斯·安德森(Chris Anderson)提到的所謂「長尾」的領悟,即眾多小網站集體的力量提供了互聯網的大多數內容。DoubleClick的產品要求一種簽訂正式的銷售合同,並將其市場局限於很少的幾千個大型網站。Overture和Google則領會到如何將廣告放置到幾乎所有網頁上。更進一步地,它們迴避了發行商和廣告代理們所喜愛的廣告形式,例如旗幟廣告和彈出式廣告,而採用了干擾最小的、上下文敏感的、對用戶友好的文字廣告形式。

Web 2.0的經驗是:有效利用消費者的自助服務和演算法上的數據管理,以便能夠將觸角延伸至整個互聯網,延伸至各個邊緣而不僅僅是中心,延伸至長尾而不僅僅是頭部。

毫不奇怪,其他Web 2.0的成功故事也顯示著同樣的軌跡。eBay扮演著一個自動的中間媒介的角色,使個體之間發生的幾個美元的偶然性的交易成為可能。Napster(雖然已經出於法律原因而關閉)將其網路建立在一個集中的歌曲資料庫之上,但是它讓每一個下載者都成為一台伺服器,從而使其網路逐漸擴大。

Akamai 對 BitTorrent

同DoubleClick類似,Akamai的業務重點面向網路的頭部,而不是尾部;面向中心,而不是邊緣。雖然它服務於那些處於網路邊緣的個體的利益,為他們訪問位於互聯網中心的高需求的網站鋪平了道路,但它的收入仍然來自從那些位於中心的網站。

BitTorrent,像P2P風潮中的其他倡導者一樣,採用了一種激進的方式來達到互聯網去中心化(internet decentralization)的目的。每個客戶端同時也是一個伺服器;文件被分割成許多片段,從而可以由網路上的多個地方提供,透明地利用了網路的下載者來為其他下載者提供帶寬和數據。事實上,文件越流行下載得越快,因為有更多的用戶在為這個文件提供帶寬和各個片段。

BitTorrent由此顯示出Web 2.0的一個關鍵原則:用戶越多,服務越好。一邊是Akamai必須增加伺服器來改善服務,另一邊是BitTorrent用戶將各自的資源貢獻給大家。可以說,有一種隱性的「參與體系」內置在合作準則中。在這種參與體系中,服務主要扮演著一個智能代理的作用,將網路上的各個邊緣連接起來,同時充分利用了用戶自身的力量。

2. 利用集體智慧

在誕生於Web 1.0時代並且存活了下來,而且要繼續領導Web 2.0時代的那些巨人的成功故事的背後,有一個核心原則,就是他們藉助了網路的力量來利用集體智慧:

--超級鏈接是互聯網的基礎。當用戶添加新的內容和新的網站的時候,將被限定在一種特定的網路結構中,這種網路結構是由其他用戶發現內容並建立鏈接的。如同大腦中的神經突觸,隨著彼此的聯系通過復制和強化變得越來越強,而作為所有網路用戶的所有活動的直接結果,互聯的網路將有機地成長。

--Yahoo!是第首例偉大的成功故事,誕生於一個分類目錄,或者說是鏈接目錄,一個對數萬甚至數百萬網路用戶的最精彩作品的匯總。雖然後來Yahoo!進入了創建五花八門的內容的業務,但其作為一個門戶來收集網路用戶們集體作品的角色,依然是其價值核心。

--Google在搜索方面的突破在於PageRank技術,該技術令其迅速成為搜索市場上毫無爭議的領導者。PageRank是一種利用了網路的鏈接結構,而不是僅僅是使用文檔的屬性,來實現更好的搜索效果的方法。

--eBay的產品是其全部用戶的集體活動,就向網路自身一樣,eBay隨著用戶的活動而有機地成長,而且該公司的角色是作為一個特定環境的促成者,而用戶的行動就發生在這種環境之中。更重要的是,eBay的競爭優勢幾乎都來自於關鍵性的大量的買家和賣家雙方,而這正是這一點使得後面許多競爭者的產品的吸引力顯著減低。

--Amazon銷售同Barnesandnoble.com等競爭者相同的產品,同時這些公司從賣方獲得的是同樣的產品描述、封面圖片和目錄。所不同的是,Amazon已然締造出了一門關於激發用戶參與的科學。Amazon擁有比其競爭者高出一個數量級以上的用戶評價,以及更多的邀請來讓用戶以五花八門的方式,在近乎所有的頁面上進行參與,而更為重要的是,他們利用用戶的活動來產生更好的搜索結果。Barnesandnoble.com的搜索結果很可能指向該公司自己的產品,或者是贊助商的結果,而Amazon則始終以所謂「最流行的」打頭,這是一種實時計算,不僅基於銷售,而且基於其他一些被Amazon內部人士稱為圍繞著產品「流動」(flow)的因素。由於擁有高出對手一個數量級的用戶參與,Amazon銷售額超出競爭對手也就不足為奇了。

現在,具備了這種洞察力,並且可能會將之延伸開來的那些創新型的公司,正在互聯網上留下他們的印跡。

維基網路全書(Wikipedia)是一種在線網路全書,其實現基於一種看似不可能的觀念。該觀念認為一個條目可以被任何互聯網用戶所添加,同時可以被其他任何人編輯。無疑,這是對信任的一種極端的實驗,將埃里克·雷蒙德(Eric Raymond)的格言(源自開放源碼軟體的背景之下):「有足夠的眼球,所有的程序缺陷都是膚淺的」(with enough eyeballs, all bugs are shallow)運用到了內容的創建之中。維基網路全書已然高居世界網站百強之列,並且許多人認為它不久就將位列十強。這在內容創建方面是一種深遠的變革。

像del.icio.us(美味書簽)和Flickr這樣的網站,其公司已經在近期獲得了廣泛的關注,並且已經在一種被人們成為「分眾分類」(folksonomy,有別於傳統分類法)的概念上成為先行者。「分眾分類」是一種使用用戶自由選擇的關鍵詞對網站進行協作分類的方式,而這些關鍵詞一般稱為標簽(tags)。標簽化運用了像大腦本身所使用的那種多重的、重疊的關聯,而不是死板的分類。舉一個經典的例子,在Flickr網站上,一幅小狗照片可能被加上「小狗」和「可愛」這樣的標簽,從而允許系統依照用戶行為所產生的自然的方式來進行檢索。

協作式垃圾信息過濾產品,例如Cloudmark,就聚集了電子郵件用戶們對於「一封郵件是或者不是垃圾郵件」的眾多相互獨立的決策,從而勝過了依賴於分析郵件本身的那些系統。

偉大的互聯網成功者並不主動地到處推銷其產品,這幾乎成為公理。他們採用「病毒式營銷」(viral marketing)的方式,也就是說,一些推介會直接從一個用戶傳播到另外一個用戶。如何一個網站或產品依賴廣告來進行宣傳,你幾乎可以斷定它不是Web 2.0。

即便許多互聯網基礎設施本身,包括在大多數網路伺服器中用到的Linux,Apache,MySQL,以及Perl,PHP或Python代碼,也都依靠開放源碼的對等生產(peer-proction)的方式。其中包含了一種集體的、網路賦予的智慧。在SourceForge.net網站上列有至少10萬種開放源碼軟體項目。任何人都可以添加一個項目,任何人都可以下載並使用項目代碼。

同時,由於作為用戶使用的結果,新的項目從邊緣遷移到中心。一個對軟體的有機的接受過程幾乎完全依靠病毒式營銷。同時,作為用戶應用的結果,新的項目從邊緣遷移到中心,這是一種幾乎完全依靠病毒式營銷的,有機的軟體採用過程,。

經驗是:源於用戶貢獻的網路效應,是在Web 2.0時代中統治市場的關鍵。
平台總是打敗應用程序
在過去每次同對手的競爭中,微軟都成功地打用了平台這張牌,打敗了即便是最佔主導地位的應用程序。Windows平台讓微軟以Excel取代了Lotus 1-2-3,以Word取代了WordPerfect,,以Internet Explorer取代了Netscape瀏覽器。
不過這次,沖突不是在平台和應用程序之間,而是在兩種平台之間。每個平台皆有一種截然不同的商業模式:一方面,一個獨立軟體商具有廣泛的用戶基礎並且將應用程序介面和操作系統緊密集成,從而對程序設計模式予以控制;另一方面,是一個沒有所有者的系統,由一組協議、開放標准和對合作的共識來連結到一起。
Windows系統代表了由軟體程序介面來進行專有控制的高峰。Netscape曾嘗試用微軟當初對付其對手所使用的手段,來同微軟進行爭奪,但是失敗了。然而擁有互聯網開放標準的Apache卻已經繁榮了起來。此番上演的戰局,已經不再是實力懸殊的平台對決孤立的軟體了,而是變成了平台對決平台。問題在於,哪個平台,或者更深遠地來說哪個體系,以及哪個商業模式,最能適應未來的機遇。
Windows對於早期的PC時代的問題是一種卓越的解決方案。它統一了程序開發者的競技場,解決了很多困擾這個領域的問題。但這種由單一供方控制的一刀切的方法,已經不再是適宜的解決方案,而成為了一種問題。面向交流的系統需要協同性,互聯網作為一個平台當然也是如此。除非供方可以控制每一例交互的兩個終端,這種通過軟體的程序介面來鎖定用戶的可能性微乎其微。
任何企圖通過控制平台來推銷應用程序的Web 2.0提供商,從定義上講,已經喪失了這個平台的優越性。
這並不是說鎖定和競爭優勢的機會不復存在了,而是說我們相信這種機會不是通過控制軟體程序介面和協議來取得的。新的游戲規則正在浮現。那些能夠理解這些新的游戲規則,而不是企圖回到PC軟體時代舊有規則的公司,才有可能在Web 2.0時代獲得成功。

博客和大眾智慧

Web 2.0時代一項最受追捧的特性就是博客的興起。個人主頁從互聯網早期就已經存在了,而個人日記和每日發表觀點的專欄就更淵源久遠了,那麼到底有什麼讓人大驚小怪的呢?

歸根底地,博客只是一種日記形式個人網頁。但正如里奇·斯格仁塔(Rich Skrenta)指出的,博客的按時間順序來排列的結構「看起來像是一個微不足道的變化,但卻推動著一個迥然不同的分發、廣告和價值鏈。」

其中一大變化就是一項稱為RSS的技術。RSS是自早期計算機高手們認識到CGI(公共網關介面)可用來創建以資料庫為基礎的網站以來,在互聯網根本結構方面最重要的進步。RSS使人們不僅僅鏈接到一個網頁,而且可以訂閱這個網頁,從而每當該頁面產生了變化時都會得到通知。斯格仁塔將之稱為「增量的互聯網」(incremental web)。其他人則稱之為「鮮活的互聯網」(live web)。

當然,現在所謂「動態網站」(即具有動態產生的內容的、由資料庫驅動的網站)取代了十年前的靜態網站。而動態網站的活力不僅在於網頁,而且在鏈接方面。一個指向網路博客的鏈接實際上是指向一個不斷更新的網頁,包括指向其中任何一篇文章的「固定鏈接」(permalinks),以及每一次更新的通知。因此,一個RSS是比書簽或者指向一個單獨網頁的鏈接要強大得多。

RSS同時也意味著網頁瀏覽器不再只是限於瀏覽網頁的工具。盡管諸如Bloglines之類的RSS聚合器(RSS aggregators)是基於網路的,但其他的則是桌面程序,此外還有一些則可以用在便攜設備上來接受定期更新的內容。

RSS現在不僅用於推送新的博客文章的通知,還可以用於其他各種各樣的數據更新,包括股票報價、天氣情況、以及圖片。這類應用實際上是對RSS本源的一種回歸:RSS誕生於1997年,是如下兩種技術的匯合:一種是戴夫·溫納(Dave Winer)的「真正簡單的聚合」(Really Simple Syndication)技術,用於通知博客的更新情況;另一種是Netscape公司提供的「豐富站點摘要」(Rich Site Summary)技術,該技術允許用戶用定期更新的數據流來定製Netscape主頁。後來Netscape公司失去了興趣,這種技術便由溫納的一個博客先驅公司Userland承接下來。不過,在現在的應用程序實現中,我可以看出兩者共同的作用。

但是,RSS只是令博客區別於同普通網頁的一部分原因。湯姆·科特斯(Tom Coates)這樣評論固定鏈接的重要性:

「現在它可能看上去像是一項普普通通的功能,但它卻有效地將博客從一個易於發布(ease-of-publishing)的現象,進一步轉變為互相交叉的社區的一種對話式的參與。這是首次使得對其他人的網站上的很特定的帖子表態和談論變得如此地容易。討論出現了,聊天也出現。同時,其結果是出現了友誼或者友誼更加堅定了。固定鏈接是第一次也是最為成功的一次在博客之間搭建橋梁的嘗試。」

在許多方面,RSS同固定鏈接的結合,為HTPP(互聯網協議)增添了NNTP(新聞組的網路新聞協議)的許多特性。所謂「博客圈」(blogosphere),可以將其視作一種同互聯網早期的、以對話方式來灌水的新聞組和公告牌相比來說,新型的對等(peer-to-peer)意義上的等價現象。人們不僅可以相互訂閱網站並方便地鏈接到一個頁面上的特定評論,而且通過一種稱為引用通告(trackbacks)的機制,可以得知其他任何人鏈接到了他們的頁面,並且可以用相互鏈接或者添加評論的方式來做出回應。

有趣的是,這種雙向鏈接(two-way links)曾是象Xana之類的早期超文本系統的目標。超文本純粹論者已然將引用通告頌揚為向雙向鏈接邁進了一步。但需要注意的是,引用通告不是一個真正的雙向鏈接,確切地講是一種(潛在地)實現了雙向鏈接效果的對稱式單向鏈接。其間的區別看起來可能很細微,但實際上卻是巨大的。諸如Friendster, Orkut和LinkedIn那樣的社交網路系統(social networking systems),需要接受方做出確認以便建立某種連接,從而缺少像互聯網架構本身那樣的可伸縮性。正如照片共享服務Flickr網站的創始人之一卡特里納·費克(Caterina Fake)所指出的,注意力僅在碰巧時才禮尚往來。(Flickr因此允許用戶設置觀察列表,即任何用戶都可以通過RSS來訂閱其他所有用戶的照片流。注意的對象將會被通知,但並不一定要認可這種連接。)

如果Web 2.0的一個本質是利用集體智慧,來將互聯網調試為一種所謂的全球的大腦,那麼博客圈就是前腦中喋喋不休的囈語,那種我們整個頭腦中都能聽到的聲音。這可能並不反映出大腦的往往是無意識的深層結構,但卻是一種有意識的思考的等價物。作為一種有意識的思考和注意力的反映,博客圈已經開始具有強有力的影響。

首先,因為搜索引擎使用鏈接結構來輔助預測有用的頁面,作為最多產和最及時的鏈接者,博客們在修整搜索引擎結果方面充當著一種不成比例的角色。其次,因為博客社區是如此多地自相引用,關注其他博客的博客們開闊了他們的視野和能力。此外,評論家們所批判的「迴音室」(echo chamber)也是一種放大器。

如果只是一種放大器,那麼撰寫博客將會變得無趣。但是像維基網路全書一樣,博客將集體智慧用作一種過濾器。被詹姆士·蘇瑞奧維奇(James Suriowecki)稱為「大眾智慧」(the wisdom of crowds)的規律起了作用,並且就像PageRank技術所產生的結果勝過分析任何單一文檔一樣,博客圈的集體關注會篩選出有價值的東西。

雖然主流媒體可能將個別的博客視為競爭者,但真正使其緊張的將是同作為一個整體的博客圈的競爭。這不僅是網站之間的競爭,而且是一種商業模式之間的競爭。Web 2.0的世界也正是丹·吉爾默(Dan Gillmor)的所謂「個人媒體」(We,the media)的世界。在這個世界中,是所謂「原本的聽眾」,而不是密實里的少數幾個人,來決定著什麼是重要的。

3. 數據是下一個Intel Inside

現在每一個重要的互聯網應用程序都由一個專門的資料庫驅動:Google的網路爬蟲, Yahoo!的目錄(和網路爬蟲),Amazon的產品資料庫,eBay的產品資料庫和銷售商,MapQuest的地圖資料庫,Napster的分布式歌曲庫。正如哈爾·瓦里安(Hal Varian)在去年的私人對話中談到的,「SQL是新的HTML」。資料庫管理是Web 2.0公司的核心競爭力,其重要性使得我們有時候稱這些程序為「訊件」(infoware)而不僅僅是軟體。

該事實也引出了一個關鍵問題:誰擁有數據?

在互聯網時代,我們可能已經見到了這樣一些案例,其中對資料庫的掌控導致了對市場的支配和巨大的經濟回報。當初由美國政府的法令授權給Network Solutions公司(後被Verisign公司收購)的對域名注冊的壟斷,曾經是互聯網上的第一個搖錢樹。雖然我們在爭論通過控制軟體的API來形成商業優勢在互聯網時代會變得困難得多,但是對關鍵數據資源的控制則不同,特別是當要創建這些數據資源非常昂貴,或者經由網路效應容易增加回報的時候。

注意一下由MapQuest, maps.yahoo.com,maps.msn.com,或者maps.google.com等網站提供的每張地圖下面的版權聲明,你會發現這樣一行字「地圖版權NavTeq,TeleAtlas」,或者如果使用的是新的衛星圖像服務,則會看到「圖像版權Digital Globe」的字樣。這些公司對其資料庫進行了大量的投資。(僅NavTeq一家,就公布投資7.5億美元用於創建其街道地址和路線資料庫。Digital Globe則投資5億美元來啟動其自有衛星,來對政府提供的圖像進行改進。)NavTeq竟然已做了很多模仿Intel的耳熟能詳的Intel Inside標識的事:例如帶有導航系統的汽車就帶有「Nav

❼ python能做什麼

python的用途:

Python的優勢有必要作為第一步去了解,Python作為面向對象的腳本語言,優勢就是數據處理和挖掘,這也註定了它和AI、互聯網技術的緊密聯系。

網路爬蟲。顧名思義,從互聯網上爬取信息的腳本,主要由urllib、requests等庫編寫,實用性很強,小編就曾寫過爬取5w數據量的爬蟲。在大數據風靡的時代,爬蟲絕對是新秀。

人工智慧。AI使Python一戰成名,AI的實現可以通過tensorflow庫。神經網路的核心在於激活函數、損失函數和數據,數據可以通過爬蟲獲得。訓練時大量的數據運算又是Python的show time。

(7)python爬蟲ebay擴展閱讀:

Python開發人員盡量避開不成熟或者不重要的優化。一些針對非重要部位的加快運行速度的補丁通常不會被合並到Python內。在某些對運行速度要求很高的情況,Python設計師傾向於使用JIT技術,或者用使用C/C++語言改寫這部分程序。可用的JIT技術是PyPy。

Python是完全面向對象的語言。函數、模塊、數字、字元串都是對象。並且完全支持繼承、重載、派生、多繼承,有益於增強源代碼的復用性。

Python支持重載運算符和動態類型。相對於Lisp這種傳統的函數式編程語言,Python對函數式設計只提供了有限的支持。有兩個標准庫(functools, itertools)提供了Haskell和Standard ML中久經考驗的函數式程序設計工具。

❽ python能做什麼有趣的東西

python能做什麼有趣的東西?下面給大家介紹35個Python實例:
1. Python3 實現圖片識別
2. Python3 圖片隱寫術

3. 200 行 Python 代碼實現 2048
4. Python實現3D建模工具
5. 使用 Python 定製詞雲
相關推薦:《Python教程》
6. Python3 智能裁切圖片
7.微信變為聊天機器人
8. 使用 Python 解數學方程
9. 使用 Python 創建照片馬賽克
10. Python 基於共現提取《釜山行》人物關系
11. Python 氣象數據分析:《Python 數據分析實戰》
12. NBA常規賽結果預測:利用Python進行比賽數據分析
13. Python 的循環語句和隱含波動率的計算
14. K-近鄰演算法實現手寫數字識別系統
15. 數獨游戲的 Python 實現與破解
16. 基於 Flask 與 MySQL 實現番劇推薦系

17. Python 實現英文新聞摘要自動提取
18. Python 解決哲學家就餐問題
19. Ebay 在線拍賣數據分析
20. 神經網路實現人臉識別任務
21. 使用 Python 解數學方程
22. Python3 實現火車票查詢工具
23. Python 實現埠掃描器
24. Python3 實現可控制肉雞的反向Shell
25. Python 實現 FTP 弱口令掃描器
26. 基於PyQt5 實現地圖中定位相片拍攝位置
27. Python實現網站模擬登陸
28.Python實現簡易區域網視頻聊天工具
29. 基於 TCP 的 python 聊天程序
30. Python3基於Scapy實現DDos
31. 高德API + Python 解決租房問題
32. 基於 Flask 與 RethinkDB 實現TODO List
33. Python3 實現簡單的 Web 伺服器
34. Python 實現 Redis 非同步客戶端
35. 仿 StackOverflow 開發在線問答系統

❾ ebay後台用什麼語言開發

eBay後台使用的是Java語言開發的。 eBay是一個大型的電子商務網站,其後台需要處理大孫宴量的數據和交易,因此使用Java語言可以保證其高效尺宴性和穩定性則困銀。此外,eBay還使用了其他的技術,如Hadoop、Cassandra等,以支持其海量數據的處理和存儲。

閱讀全文

與python爬蟲ebay相關的資料

熱點內容
creo五軸編程光碟 瀏覽:12
蘋果app網路驗證在哪裡 瀏覽:14
博科清空命令 瀏覽:384
簡愛英文pdf 瀏覽:376
cnc編程有前途嗎 瀏覽:586
聯想app怎麼聯網 瀏覽:722
linuxftp命令登錄 瀏覽:1000
android獲取圖片縮略圖 瀏覽:646
神戶制鋼螺桿壓縮機 瀏覽:29
差分演化演算法 瀏覽:567
中山市加密軟體 瀏覽:446
mc反編譯源碼 瀏覽:139
企業商城網站源碼 瀏覽:411
shell腳本編程是什麼 瀏覽:762
單片機led閃爍匯編 瀏覽:203
點淘app怎麼沒金蛋了 瀏覽:878
app拉新哪裡找推廣碼 瀏覽:935
哪個app生活服務好 瀏覽:108
mht安卓用什麼軟體打開 瀏覽:320
html5即時通訊源碼 瀏覽:144