Ⅰ 使用Mojang的API獲取一個玩家的uuid.
GET https://api.mojang.com/users/profiles/minecraft/<username>?at=<timestamp>
可以用get來獲取,也可以扮談直廳缺辯接在瀏覽器中打開網址
<username>是游戲ID,比如2333的UUID是:
https://api.mojang.com/users/profiles/minecraft/233
結果是JSON:
{"id":"","name":"233"}
該玩家的UUID是
timestamp是UNIX時間戳
具體可以看wiki.vg裡面有相關扮缺
Ⅱ 網易我的世界如何製作模組
首先模組其實是addon
你需要有編程的基礎,去下載一個國際版Minecraft
然後新建一個文件夾
裡面新建一個文件名為manifest.json裡面輸入這行代碼
{
"format_version": 1,
"header": {
"description": "作者散耐:",
"name": "行為包測試",
"uuid"搜沒: "89b03d6a-a01e-4548-93bf-340d6c149b48",
"version": [1, 0, 0]
},
"moles": [
{
"description": "",
"type": "data",
"uuid": "f5d314d7-54ba-4b53-90d5-92fe23206818"世掘納,
"version": [1, 0, 0]
}
]
}
然後保存 把這個文件夾壓縮 後綴名改為mcpack然後導入游戲就可以看到了
Ⅲ Linux下磁碟分區的uuid是根據哪些參數得的
UUID在文件系統中的使用
UUID可以持久唯一標識一個硬碟分區。其實方式很簡單,就是在文件系統的超級塊中使用128位存放UUID。這個UUID是在使用文件系統格式化分區時計算生成的,例如Linux下的文件系統工具mkfs就在格式化分區的同時,生成UUID並把它記錄到超級塊的固定區域中。
下面是ext2文件系統超級塊結構:
struct ext2_super_block
{ __u32 s_inodes_count; /* 文件系統中索引節點總數 */
__u32 s_blocks_count; /*文件系統中總塊數 */
__u32 s_r_blocks_count; /* 為超級用戶保留的塊數 */
__u32 s_free_blocks_count; /*文件系統中空閑塊總數 */
__u32 s_free_inodes_count; /*文件系統中空閑索引節點總數*/
__u32 s_first_data_block; /* 文件系統中第一個數據塊 */
__u32 s_log_block_size; /* 用於計算邏輯塊大小 */
__s32 s_log_frag_size; /* 用於計算片大小 */
__u32 s_blocks_per_group; /* 每組中塊數 */
__u32 s_frags_per_group; /* 每組中片數 */
__u32 s_inodes_per_group; /* 每組中索引節點數 */
__u32 s_mtime; /*最後一次安裝操作的時間 */
__u32 s_wtime; /*最後一次對該超級塊進行寫操作的時間 */
__u16 s_mnt_count; /* 安裝計數 */
__s16 s_max_mnt_count; /* 最大可安裝計數 */
__u16 s_magic; /* 用於確定文件系統版本的標志 */
__u16 s_state; /* 文件系統的狀態*/
__u16 s_errors; /* 當檢測到有錯誤時如何處理 */
__u16 s_minor_rev_level; /* 次版本號 */
__u32 s_lastcheck; /* 最後一次檢測文件系統狀態的時間 */
__u32 s_checkinterval; /* 兩次對文件系統狀態進行檢測的間隔時間 */
__u32 s_rev_level; /* 版本號 */
__u16 s_def_resuid; /* 保留塊的默認用戶標識號 */
__u16 s_def_resgid; /* 保留塊的默認用戶組標識號*/
/*
* These fields are for EXT2_DYNAMIC_REV superblocks only.
*
* Note: the difference between the compatible feature set and
* the incompatible feature set is that if there is a bit set
* in the incompatible feature set that the kernel doesn't
* know about, it should refuse to mount the filesystem.
*
* e2fsck's requirements are more strict; if it doesn't know
* about a feature in either the compatible or incompatible
* feature set, it must abort and not try to meddle with
* things it doesn't understand...
*/
__u32 s_first_ino; /* 第一個非保留的索引節點 */
__u16 s_inode_size; /* 索引節點的大小 */
__u16 s_block_group_nr; /* 該超級塊的塊組號 */
__u32 s_feature_compat; /* 兼容特點的點陣圖*/
__u32 s_feature_incompat; /* 非兼容特點的點陣圖 */
__u32 s_feature_ro_compat; /* 只讀兼容特點的點陣圖*/
__u8 s_uuid[16]; /* 128位的文件系統標識號*/
char s_volume_name[16]; /* 卷名 */
char s_last_mounted[64]; /* 最後一個安裝點的路徑名 */
__u32 s_algorithm_usage_bitmap; /* 用於壓縮*/
/*
* Performance hints. Directory preallocation should only
* happen if the EXT2_COMPAT_PREALLOC flag is on.
*/
__u8 s_prealloc_blocks; /* 預分配的塊數*/
__u8 s_prealloc_dir_blocks; /* 給目錄預分配的塊數 */
__u16 s_padding1;
__u32 s_reserved[204]; /* 用null填充塊的末尾 */
};
可以看到s_uuid[16]就是存放分區UUID的地方。
這樣,無論硬碟分區的標識就永遠不會重復,而且只要分區沒有被重新格式化,那麼標識此分區的UUID永遠不變。
Ⅳ thinkpauid報錯是什麼意思
標題那局瞎么長,只是方便大家搜索,因為我找了大半天才將這些總結在一起,先貼出來,供大家參考]
昨天修到一個E431,進水機器。修亮之後提示0187和2201錯誤 UUID無效
在論壇搜索後,大概知道是密碼晶元內部程序錯誤導致,可以硬刷密碼晶元程序,也可以用軟體刷SN序列號
我先說下自己的流程:
1、找到E431 對應的密碼晶元,型號是U8 PCA24S08D 【晶元上標註:P24S08D】 ,硬刷晶元資料【和刷普通空旦BIOS一樣】,晶元程序論壇有 刷E40的可以用
PS:可以搜索EEPROM或者WP 定位到該密碼晶元,我找了10幾個不同圖紙都可以定桐虧空位到
2、准備好序列號刷入工具 ,maintenace diskette [UUID刷入工具] , 運行USBFMTPW.EXE,插入U盤,就可以製作成啟動U盤,和普通引導一樣進入,界面如下
3、刷入前,先清除晶元內部保存的UUID,按照教程刷入背面的SN序列號即
4、具體圖片沒有了,給大家個鏈接吧: 密碼程序 http://so.chinafix.com/?page=0&fid=0&kw=e40+%E5%AF%86%E7%A0%81
PS:我拍的圖片沒有了,兄弟們不要噴我,軟體、使用教程、備份文件都在壓縮文件內。
Ⅳ 哪個加密軟體最好用
最好用的加密軟體其實就是winrar
相信你電腦的系統中已經安裝有該壓縮/解壓軟體對吧。
該軟體加密文件或文件夾的方法是:
右鍵點擊需要加密的文件——「添加到壓縮文件」——高級——設置密碼——輸入密碼和再次輸入密碼後(不要勾選「顯示密碼」和「加密文件名」)——確定——即可生成一個該文件的壓縮包,該壓縮包因為被你設置了密碼,想解壓出壓縮包里的文件的話,就必須輸入正確的密碼才可以。
Ⅵ es索引開啟壓縮參數
Elasticsearch 索引的配置項主要分為靜態配置屬性和動態配置屬性,靜態配置屬性是索引創建後不能修改,而動態配置屬性則可以隨時修改。
索引設置
es 索引設置的 api 為 _settings,完整的示例如下:
PUT /my_index
{
"settings": {
"index": {
"number_of_shards": "1",
"number_of_replicas": "1",
"refresh_interval": "60s",
"analysis": {
JAVA代碼ES設置setting
打開APP
weixin_39533307
關注
JAVA代碼ES設置setting_Elasticsearch(es)索引設置(settings)參數詳解 原創
2021-02-24 03:00:19
weixin_39533307
碼齡5年
關注
Elasticsearch 索引的配置項主要分為靜態配置屬性和動態配置屬性,靜態配置屬性是索引創建後不能修改,而動態配置屬性則可以隨時修改。
索鍵春亂引設置
es 索引設置的 api 為 _settings,完整的示例如下:
PUT /my_index
{
"settings": {
"index": {
"number_of_shards": "1",
"number_of_replicas": "1",
"refresh_interval": "60s",
"analysis": {
"filter": {
"tsconvert": {
"type": "stconvert",
"convert_type": "t2s",
"delimiter": ","
},
"synonym": {
"type": "synonym",
"synonyms_path": "analysis/synonyms.txt"
}
},
"analyzer": {
"ik_max_word_synonym": {
"filter": [
"synonym",
"tsconvert",
"standard",
"lowercase",
"stop"
],
"tokenizer": "ik_max_word"
},
"ik_smart_synonym": {
es 修改setting
打開APP
weixin_39533307
關注
JAVA代碼ES設置setting_Elasticsearch(es)索森圓引設置(settings)參數詳解 原創
2021-02-24 03:00:19
weixin_39533307
碼齡5年
關注
Elasticsearch 索引的配置項主要分為靜態配置屬性和動態配置屬性,靜態配置屬性是索引創建後稿檔不能修改,而動態配置屬性則可以隨時修改。
索引設置
es 索引設置的 api 為 _settings,完整的示例如下:
PUT /my_index
{
"settings": {
"index": {
"number_of_shards": "1",
"number_of_replicas": "1",
"refresh_interval": "60s",
"analysis": {
"filter": {
"tsconvert": {
"type": "stconvert",
"convert_type": "t2s",
"delimiter": ","
},
"synonym": {
"type": "synonym",
"synonyms_path": "analysis/synonyms.txt"
}
},
"analyzer": {
"ik_max_word_synonym": {
"filter": [
"synonym",
"tsconvert",
"standard",
"lowercase",
"stop"
],
"tokenizer": "ik_max_word"
},
"ik_smart_synonym": {
"filter": [
"synonym",
"standard",
"lowercase",
"stop"
],
"tokenizer": "ik_smart"
}
},
"mapping": {
"coerce": "false",
"ignore_malformed": "false"
},
"indexing": {
"slowlog": {
"threshold": {
"index": {
"warn": "2s",
"info": "1s"
固定屬性
index.creation_date:顧名思義索引的創建時間戳。
index.uuid:索引的 uuid 信息。
index.version.created:索引的版本號。
索引靜態配置
index.number_of_shards:索引的主分片數,默認值是 5。這個配置在索引創建後不能修改;在 es 層面,可以通過 es.index.max_number_of_shards 屬性設置索引最大的分片數,默認為 1024。
index.codec:數據存儲的壓縮演算法,默認值為 LZ4,可選擇值還有 best_compression,它比 LZ4 可以獲得更好的壓縮比(即占據較小的磁碟空間,但存儲性能比 LZ4 低)。
index.routing_partition_size:路由分區數,如果設置了該參數,其路由演算法為:( hash(_routing) + hash(_id) % index.routing_parttion_size ) % number_of_shards。如果該值不設置,則路由演算法為 hash(_routing) % number_of_shardings,_routing 默認值為 _id。靜態配置里,有重要的部分是配置分析器(config analyzers)。
index.analysis:分析器最外層的配置項,內部主要分為 char_filter、tokenizer、filter 和analyzer。
char_filter:定義新的字元過濾器件。
tokenizer:定義新的分詞器。
filter:定義新的 token filter,如同義詞 filter。
analyzer:配置新的分析器,一般是char_filter、tokenizer 和一些 token filter 的組合。
索引動態配置
index.number_of_replicas:索引主分片的副本數,默認值是 1,該值必須大於等於 0,這個配置可以隨時修改。
index.refresh_interval:執行新索引數據的刷新操作頻率,該操作使對索引的最新更改對搜索可見,默認為 1s。也可以設置為 -1 以禁用刷新。更詳細信息參考 Elasticsearch 動態修改 refresh_interval 刷新間隔設置。
Ⅶ POST請求,文件上傳/解析數據/UUID/流操作、gz壓縮
server.js
HTML
Ⅷ libuuid庫
.a還是.so?
一般在下面幾個備宏陵包絕伍內(估計是uuid-dev),apt安裝就行仿戚
# apt-cache search libuuid
libdata-uuid-libuuid-perl - uuid.h based UUID generation mole
libuuid-perl - Perl extension for using UUID interfaces as defined in e2fsprogs
libuuid-tiny-perl - pure Perl mole to generate v1, v3, v4, and v5 UUIDs
libuuidtools-ruby-doc - UUIDs generation library for Ruby
libuuidtools-ruby1.8 - UUIDs generation library for Ruby
libuuidtools-ruby - UUIDs generation library for Ruby
libuuid1 - Universally Unique ID library
uuid-dev - universally unique id library - headers and static libraries
uuid-runtime - runtime components for the Universally Unique ID library
libuuidm-ocaml-dev - Universally unique identifiers for OCaml
Ⅸ ElasticSearch數據存儲內容
很多使用Elasticsearch的同學會關心數據存儲在ES中的存儲容量,會有這樣的疑問:xxTB的數據入到ES會使用多少存儲空間。這個問題其實很難直接回答的,只有數據寫入ES後,才能觀察到實際的存儲空間。比如同樣是1TB的數據,寫入ES的存儲空間可能差距會非常大,可能小到只有300~400GB,也可能多到6-7TB,為什麼會造成這么大的差距呢?究其原因,我們來探究下Elasticsearch中的數據是如何存儲。文章中我以Elasticsearch 2.3版本為示例,對應的lucene版本是5.5,Elasticsearch現在已經來到了6.5版本,數字類型、列存等存儲結構有些變化,但基本的概念變化不多,文章中的內容依然適用。
Elasticsearch對外提供的是index的概衡塌慶念,可以類比為DB,用咐握戶查詢是在index上完成的,衫皮每個index由若干個shard組成,以此來達到分布式可擴展的能力。比如下圖是一個由10個shard組成的index。
shard是Elasticsearch數據存儲的最小單位,index的存儲容量為所有shard的存儲容量之和。Elasticsearch集群的存儲容量則為所有index存儲容量之和。
一個shard就對應了一個lucene的library。對於一個shard,Elasticsearch增加了translog的功能,類似於HBase WAL,是數據寫入過程中的中間數據,其餘的數據都在lucene庫中管理的。
所以Elasticsearch索引使用的存儲內容主要取決於lucene中的數據存儲。
下面我們主要看下lucene的文件內容,在了解lucene文件內容前,大家先了解些lucene的基本概念。
lucene包的文件是由很多segment文件組成的,segments_xxx文件記錄了lucene包下面的segment文件數量。每個segment會包含如下的文件。
下面我們以真實的數據作為示例,看看lucene中各類型數據的容量佔比。
寫100w數據,有一個uuid欄位,寫入的是長度為36位的uuid,字元串總為3600w位元組,約為35M。
數據使用一個shard,不帶副本,使用默認的壓縮演算法,寫入完成後merge成一個segment方便觀察。
使用線上默認的配置,uuid存為不分詞的字元串類型。創建如下索引:
首先寫入100w不同的uuid,使用磁碟容量細節如下:
可以看到正排數據、倒排索引數據,列存數據容量佔比幾乎相同,正排數據和倒排數據還會存儲Elasticsearch的唯一id欄位,所以容量會比列存多一些。
35M的uuid存入Elasticsearch後,數據膨脹了3倍,達到了122.7mb。Elasticsearch竟然這么消耗資源,不要著急下結論,接下來看另一個測試結果。
我們寫入100w一樣的uuid,然後看看Elasticsearch使用的容量。
這回35M的數據Elasticsearch容量只有13.2mb,其中還有主要的佔比還是Elasticsearch的唯一id,100w的uuid幾乎不佔存儲容積。
所以在Elasticsearch中建立索引的欄位如果基數越大(count distinct),越佔用磁碟空間。
我們再看看存100w個不一樣的整型會是如何。
從結果可以看到,100w整型數據,Elasticsearch的存儲開銷為13.6mb。如果以int型計算100w數據的長度的話,為400w位元組,大概是3.8mb數據。忽略Elasticsearch唯一id欄位的影響,Elasticsearch實際存儲容量跟整型數據長度差不多。
我們再看一下開啟最佳壓縮參數對存儲空間的影響:
結果中可以發現,只有正排數據會啟動壓縮,壓縮能力確實強勁,不考慮唯一id欄位,存儲容量大概壓縮到接近50%。
我們還做了一些實驗,Elasticsearch默認是開啟_all參數的,_all可以讓用戶傳入的整體json數據作為全文檢索的欄位,可以更方便的檢索,但在現實場景中已經使用的不多,相反會增加很多存儲容量的開銷,可以看下開啟_all的磁碟空間使用情況:
開啟_all比不開啟多了40mb的存儲空間,多的數據都在倒排索引上,大約會增加30%多的存儲開銷。所以線上都直接禁用。
然後我還做了其他幾個嘗試,為了驗證存儲容量是否和數據量成正比,寫入1000w數據的uuid,發現存儲容量基本為100w數據的10倍。我還驗證了數據長度是否和數據量成正比,發現把uuid增長2倍、4倍,存儲容量也響應的增加了2倍和4倍。在此就不一一列出數據了。
文件名為:segments_xxx
該文件為lucene數據文件的元信息文件,記錄所有segment的元數據信息。
該文件主要記錄了目前有多少segment,每個segment有一些基本信息,更新這些信息定位到每個segment的元信息文件。
lucene元信息文件還支持記錄userData,Elasticsearch可以在此記錄translog的一些相關信息。
文件後綴:.si
每個segment都有一個.si文件,記錄了該segment的元信息。
segment元信息文件中記錄了segment的文檔數量,segment對應的文件列表等信息。
文件後綴:.fnm
該文件存儲了fields的基本信息。
fields信息中包括field的數量,field的類型,以及IndexOpetions,包括是否存儲、是否索引,是否分詞,是否需要列存等等。
文件後綴:.fdx, .fdt
索引文件為.fdx,數據文件為.fdt,數據存儲文件功能為根據自動的文檔id,得到文檔的內容,搜索引擎的術語習慣稱之為正排數據,即doc_id -> content,es的_source數據就存在這
索引文件記錄了快速定位文檔數據的索引信息,數據文件記錄了所有文檔id的具體內容。
索引後綴:.tip,.tim
倒排索引也包含索引文件和數據文件,.tip為索引文件,.tim為數據文件,索引文件包含了每個欄位的索引元信息,數據文件有具體的索引內容。
5.5.0版本的倒排索引實現為FST tree,FST tree的最大優勢就是內存空間佔用非常低 ,具體可以參看下這篇文章: http://www.cnblogs.com/bonelee/p/6226185.html
http://examples.mikemccandless.com/fst.py?terms=&cmd=Build+it 為FST圖實例,可以根據輸入的數據構造出FST圖
生成的 FST 圖為:
文件後綴:.doc, .pos, .pay
.doc保存了每個term的doc id列表和term在doc中的詞頻
全文索引的欄位,會有.pos文件,保存了term在doc中的位置
全文索引的欄位,使用了一些像payloads的高級特性才會有.pay文件,保存了term在doc中的一些高級特性
文件後綴:.dvm, .dvd
索引文件為.dvm,數據文件為.dvd。
lucene實現的docvalues有如下類型:
其中SORTED_SET 的 SORTED_SINGLE_VALUED類型包括了兩類數據 : binary + numeric, binary是按ord排序的term的列表,numeric是doc到ord的映射。