国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

python讀取hdfs上的parquet文件方式

瀏覽:6日期:2022-07-22 15:00:03

在使用python做大數據和機器學習處理過程中,首先需要讀取hdfs數據,對于常用格式數據一般比較容易讀取,parquet略微特殊。從hdfs上使用python獲取parquet格式數據的方法(當然也可以先把文件拉到本地再讀取也可以):

1、安裝anaconda環境。

2、安裝hdfs3。

conda install hdfs3

3、安裝fastparquet。

conda install fastparquet

4、安裝python-snappy。

conda install python-snappy

5、讀取文件

##namenode mode:from hdfs3 import HDFileSystemfrom fastparquet import ParquetFile hdfs = HDFileSystem(host=IP, port=8020)sc = hdfs.open pf = ParquetFile(filename, open_with=sc)df = pf.to_pandas() ##返回pandas的DataFrame類型 ##HA mode:from hdfs3 import HDFileSystemfrom fastparquet import ParquetFile host = 'nameservice1'conf = { 'dfs.nameservices':'nameservice1', ......}hdfs = HDFileSystem(host = host, pars = conf)......

python訪問HDFS HA的三種方法

python訪問hdfs常用的包有三個,如下:

1、hdfs3

其實從安裝便捷性和使用上來說,并不推薦hdfs3,因為他的系統依賴和網絡要求較高,但是某些情況下使用hdfs3會比較方便,官網資料點這里。如上面介紹,IP直接訪問namenode:

from hdfs3 import HDFileSystemhdfs = HDFileSystem(host=namenode, port=8020)hdfs.ls(’/tmp’)

HA訪問:

host = 'nameservice1'conf = {'dfs.nameservices': 'nameservice1', 'dfs.ha.namenodes.nameservice1': 'namenode113,namenode188', 'dfs.namenode.rpc-address.nameservice1.namenode113': 'hostname_of_server1:8020', 'dfs.namenode.rpc-address.nameservice1.namenode188': 'hostname_of_server2:8020', 'dfs.namenode.http-address.nameservice1.namenode188': 'hostname_of_server1:50070', 'dfs.namenode.http-address.nameservice1.namenode188': 'hostname_of_server2:50070', 'hadoop.security.authentication': 'kerberos'}fs = HDFileSystem(host=host, pars=conf) ##或者下面這種配置host = 'ns1'conf = { 'dfs.nameservices':'ns1', 'dfs.ha.namenodes.ns1':'namenode122,namenode115', 'dfs.namenode.rpc-address.ns1.namenode122':'nnlab01:8020', 'dfs.namenode.servicerpc-address.ns1.namenode122':'nnlab01:8022', 'dfs.namenode.http-address.ns1.namenode122':'nnlab01:50070', 'dfs.namenode.https-address.ns1.namenode122':'nnlab01:50470', 'dfs.namenode.rpc-address.ns1.namenode115':'nnlab02:8020', 'dfs.namenode.servicerpc-address.ns1.namenode115':'nnlab02:8022', 'dfs.namenode.http-address.ns1.namenode115':'nnlab02:50070', 'dfs.namenode.https-address.ns1.namenode115':'nnlab02:50470',}hdfs = HDFileSystem(host = host, pars = conf)

2、hdfs

這種方法在使用的時候配置比較簡單,官網資料也比較豐富,但是需要注意的是該API可以模擬用戶訪問,權限較大。IP直接訪問:

import hdfsclient = hdfs.client.InsecureClient(url='http://namenode:50070', user='hdfs')

HA訪問:

import hdfsclient = hdfs.client.InsecureClient(url='http://namenode1:50070;http://namenode2:50070', user='hdfs')

3、pyhdfs

安裝命令:pip install PyHDFS

官網地址,直接訪問:

import pyhdfsclient = pyhdfs.HdfsClient(hosts='namenode:50070',user_name='hdfs')

HA訪問

import pyhdfsclient = pyhdfs.HdfsClient(hosts=['namenode1:50070','namenode2:50070'],user_name='hdfs')

補充知識:python spark中parquet文件寫到hdfs,同時避免太多的小文件(block小文件合并)

在pyspark中,使用數據框的文件寫出函數write.parquet經常會生成太多的小文件,例如申請了100個block,而每個block中的結果

只有幾百K,這在機器學習算法的結果輸出中經常出現,這是一種很大的資源浪費,那么如何同時避免太多的小文件(block小文件合并)?

其實有一種簡單方法,該方法需要你對輸出結果的數據量有個大概估計,然后使用Dataframe中的coalesce函數來指定輸出的block數量

即可,具體使用代碼如下:

df.coalesce(2).write.parquet(path,mode)

這里df是指你要寫出的數據框,coalesce(2)指定了寫到2個block中,一個block默認128M,path是你的寫出路徑,mode是寫出模式,常用的是

'overwrite'和'append'。

以上這篇python讀取hdfs上的parquet文件方式就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持好吧啦網。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 精品色综合 | 中文字幕一区二区三区亚洲精品 | 欧美黑粗特黄午夜大片 | 精品国产无限资源免费观看 | 久久最新视频 | 日韩欧美在线观看视频一区二区 | 一级片网址| 久久久综合结合狠狠狠97色 | 午夜精品视频 | 欧美精品亚洲人成在线观看 | 国产伦精品一区二区三区免费 | 国产99高清一区二区 | 东京一区二区三区高清视频 | 日韩一区二区三区在线播放 | 在线成人| 日本一级毛片高清免费观看视频 | 久草中文视频 | 欧美精品日本一级特黄 | 天天se天天cao综合网蜜芽 | 日韩3级| 国产成人香蕉久久久久 | 456主播喷水在线观看 | 俄罗斯黄色毛片 | 国内精品视频九九九九 | 成人做爰全视频 | 91热久久免费频精品动漫99 | 婷婷亚洲久悠悠色在线播放 | 亚洲国产老鸭窝一区二区三区 | 国产精品久久精品视 | 成年毛片| 深夜福利国产福利视频 | 国产女人伦码一区二区三区不卡 | 男女超猛烈啪啦啦的免费视频 | 天天爱天天做天天爽天天躁 | 看日本真人一一级特黄毛片 | 精品国产97在线观看 | aaa在线| 老湿菠萝蜜在线看 | 一级做性色a爱片久久片 | 一级一级一片免费高清 | 久久精品一区二区免费看 |