国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術(shù)文章
文章詳情頁

python使用hdfs3模塊對(duì)hdfs進(jìn)行操作詳解

瀏覽:12日期:2022-07-22 14:47:27

之前一直使用hdfs的命令進(jìn)行hdfs操作,比如:

hdfs dfs -ls /user/spark/hdfs dfs -get /user/spark/a.txt /home/spark/a.txt #從HDFS獲取數(shù)據(jù)到本地hdfs dfs -put -f /home/spark/a.txt /user/spark/a.txt #從本地覆蓋式上傳hdfs dfs -mkdir -p /user/spark/home/datetime=20180817/....

身為一個(gè)python程序員,每天操作hdfs都是在程序中寫各種cmd調(diào)用的命令,一方面不好看,另一方面身為一個(gè)Pythoner這是一個(gè)恥辱,于是乎就挑了一個(gè)hdfs3的模塊進(jìn)行hdfs的操作,瞬間就感覺優(yōu)雅多了:

hdfs 官方API:https://hdfs3.readthedocs.io/en/latest/api.html

>>> from hdfs3 import HDFileSystem#鏈接HDFS>>> hdfs = HDFileSystem(host=’localhost’, port=8020)>>> hdfs.ls(’/user/data’)>>> hdfs.put(’local-file.txt’, ’/user/data/remote-file.txt’)>>> hdfs.cp(’/user/data/file.txt’, ’/user2/data’)

#文件讀取

#txt文件全部讀取>>> with hdfs.open(’/user/data/file.txt’) as f:... data = f.read(1000000)#使用pandas讀取1000行數(shù)據(jù)>>> with hdfs.open(’/user/data/file.csv.gz’) as f:... df = pandas.read_csv(f, compression=’gzip’, nrows=1000)

#寫入文件

>>> with hdfs.open(’/tmp/myfile.txt’, ’wb’) as f:... f.write(b’Hello, world!’)

#多節(jié)點(diǎn)連接設(shè)置

host = 'nameservice1'conf = {'dfs.nameservices': 'nameservice1', 'dfs.ha.namenodes.nameservice1': 'namenode113,namenode188', 'dfs.namenode.rpc-address.nameservice1.namenode113': 'hostname_of_server1:8020', 'dfs.namenode.rpc-address.nameservice1.namenode188': 'hostname_of_server2:8020', 'dfs.namenode.http-address.nameservice1.namenode188': 'hostname_of_server1:50070', 'dfs.namenode.http-address.nameservice1.namenode188': 'hostname_of_server2:50070', 'hadoop.security.authentication': 'kerberos'}fs = HDFileSystem(host=host, pars=conf)

#API

hdfs = HDFileSystem(host=’127.0.0.1’, port=8020)hdfs.cancel_token(token=None) #未知,求大佬指點(diǎn)hdfs.cat(path) #獲取指定目錄或文件的內(nèi)容hdfs.chmod(path, mode) #修改制定目錄的操作權(quán)限hdfs.chown(path, owner, group) #修改目錄所有者,以及用戶組hdfs.concat(destination, paths) #將指定多個(gè)路徑paths的文件,合并成一個(gè)文件寫入到destination的路徑,并刪除源文件(The source files are deleted on successful completion.成功完成后將刪除源文件。)hdfs.connect() #連接到名稱節(jié)點(diǎn) 這在啟動(dòng)時(shí)自動(dòng)發(fā)生。 LZ:未知作用,按字面意思,應(yīng)該是第一步HDFileSystem(host=’127.0.0.1’, port=8020)發(fā)生的hdfs.delegate_token(user=None)hdfs.df() #HDFS系統(tǒng)上使用/空閑的磁盤空間hdfs.disconnect() #跟connect()相反,斷開連接hdfs.du(path, total=False, deep=False) #查看指定目錄的文件大小,total是否把大小加起來一個(gè)總數(shù),deep是否遞歸到子目錄hdfs.exists(path) #路徑是否存在hdfs.get(hdfs_path, local_path, blocksize=65536) #將HDFS文件復(fù)制到本地,blocksize設(shè)置一次讀取的大小hdfs.get_block_locations(path, start=0, length=0) #獲取塊的物理位置hdfs.getmerge(path, filename, blocksize=65536) #獲取制定目錄下的所有文件,復(fù)制合并到本地文件hdfs.glob(path) #/user/spark/abc-*.txt 獲取與這個(gè)路徑相匹配的路徑列表hdfs.head(path, size=1024) #獲取指定路徑下的文件頭部分的數(shù)據(jù)hdfs.info(path) #獲取指定路徑文件的信息hdfs.isdir(path) #判斷指定路徑是否是一個(gè)文件夾hdfs.isfile(path) #判斷指定路徑是否是一個(gè)文件hdfs.list_encryption_zones() #獲取所有加密區(qū)域的列表hdfs.ls(path, detail=False) #返回指定路徑下的文件路徑,detail文件詳細(xì)信息hdfs.makedirs(path, mode=457) #創(chuàng)建文件目錄類似 mkdir -phdfs.mkdir(path) #創(chuàng)建文件目錄hdfs.mv(path1, path2) #將path1移動(dòng)到path2open(path, mode=’rb’, replication=0, buff=0, block_size=0) #讀取文件,類似于python的文件讀取hdfs.put(filename, path, chunk=65536, replication=0, block_size=0) #將本地的文件上傳到,HDFS指定目錄hdfs.read_block(fn, offset, length, delimiter=None) #指定路徑文件的offset指定讀取字節(jié)的起始點(diǎn),length讀取長度,delimiter確保讀取在分隔符bytestring上開始和停止>>> hdfs.read_block(’/data/file.csv’, 0, 13) b’Alice, 100nBo’>>> hdfs.read_block(’/data/file.csv’, 0, 13, delimiter=b’n’) b’Alice, 100nBob, 200’hdfs.rm(path, recursive=True) #刪除指定路徑recursive是否遞歸刪除hdfs.tail(path, size=1024) #獲取 文件最后一部分的數(shù)據(jù)hdfs.touch(path) #創(chuàng)建一個(gè)空文件hdfs.walk(path) #遍歷文件樹

補(bǔ)充知識(shí):HDFS命令批量創(chuàng)建文件夾和文件

批量創(chuàng)建測試文件夾:

hadoop fs -mkdir -p /user/hivedata/temp/201912311001/d={27..30}/h={10..17}/m5={5,15,25}/

批量創(chuàng)建測試文件:

hadoop fs -touchz /user/hivedata/temp/201912311001/d={27..30}/h={10..17}/m5={5,15,25}/{0..5}.orc

最終效果:

hadoop fs -ls -R /user/hivedata/

python使用hdfs3模塊對(duì)hdfs進(jìn)行操作詳解

以上這篇python使用hdfs3模塊對(duì)hdfs進(jìn)行操作詳解就是小編分享給大家的全部內(nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持好吧啦網(wǎng)。

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 欧美三级网站 | 热99re久久精品精品免费 | 成人性生片全套 | 成人手机看片 | 欧美国产高清 | 爆操巨乳美女 | 91久久国产口精品久久久久 | 日韩字幕 | 亚洲欧美一区二区三区在线观看 | 欧美激情综合亚洲五月蜜桃 | 亚洲国产精品欧美日韩一区二区 | 91情侣高清精品国产 | 欧美在线播放成人a | 久久香蕉国产线看观看式 | 国产精品久久久久久网站 | 老司机午夜精品网站在线观看 | 欧美a级毛片 | 欧美在线一级精品 | 99爱视频精品免视看 | 国产片毛片 | 爽爽视频在线观看 | 国产午夜精品理论片影院 | 国产精品一区二区在线观看 | 欧美一级毛片免费播放aa | 久久久视 | 亚洲人成a在线网站 | 免费一区二区三区 | 一色屋精品亚洲香蕉网站 | 国产年成美女网站视频免费看 | 久久精品网站免费观看调教 | 亚洲精品国产美女在线观看 | 久久久这里只有精品加勒比 | 欧美极品第1页专区 | 欧美精品一二区 | 久操精品在线 | 成人中文在线 | 九九国产精品 | 精品三级在线观看 | 波多野结衣在线观看免费区 | 成年男女免费视频网站播放 | 日本黄页网站免费大全 |