㈠ 請教下,php文章標題的自動分詞(Tag)是怎麼做的
文章分詞需要程序來完成給你推薦個工具,你看看是不是你需要的分詞,這個是靈玖軟體推出的你可以找一下。
㈡ php 要從文章內容,提取關鍵詞,要怎麼寫!
提取關鍵詞,你必須得有個詞庫。然後根據詞庫匹配文章內容。詞庫越多效率越低,文章內容長度越長效率越低。
網上針對php有相乾的分詞演算法,你可以搜
」SCWS
中文分詞「
來看一下。你可以根據裡面的例子來做擴展
㈢ 求一個PHP的分詞程序,比如我有一句話:我是個好學生,分詞後: 我 是 一個 好 學生 謝謝
這個程序幾乎是沒有人能提供給你。為什麼?
因為網路的翻譯 其中就涉及到 語句分詞,這是一個很高深的技術。而且還需要分詞的詞典,規則大概是包括所有漢字,分詞規則,語句等等。
能做好這個技術,幾千萬都能賣出去。
㈣ php 一般使用什麼中文分詞擴展
Robbe是建立在Friso中文分詞器上的一個高性能php中文分詞擴展,除了提供了基本的分詞函數以外,還提供一些編碼轉換函。
Robbe完整版本(PHP測試程序, 開發幫助文檔, WinNT下php各版本的dll文件)下載:code.google.com/p/robbe
一. 關於Robbe:
robbe是建立在friso中文分詞上的一個高性能php中文分詞擴展。了解friso
1.目前最高版本:friso 1.6.0,【源碼無需修改即可在各平台下編譯運行】
2.mmseg四種過濾演算法,分詞准確率達到了98.41%。
3.詳細功能,請訪問friso官方首頁:friso [code.google.com/p/friso]
二. Robbe分詞速度:
測試環境:2.8GHZ/2G/Ubuntu
簡單模式:3.1M/秒
復雜模式:1.4M/秒
(因為php中的大量字元串的復制,性能比friso有些下降)。
㈤ php 中文分詞難題 sphinx
1.看一下bin目錄是否存在search.exe
如果不存在,就不能用search命令,看你下載到的是什麼版本,有些版本是沒有這個文件的。
2.Query()的兩個參數,第一個是搜索的關鍵詞,第二個是索引。
沒有結果的話,請確保你的數據中有那個關鍵詞,還要確保索引存在,並配置正確。
以前弄這個的時候,我寫了篇筆記:https://my.oschina.net/agui1989/blog/738392
有興趣可以去看一下。
㈥ php 提取中文後簡單分詞
$str="漢字一二3四5六七八,九十六七...";
$s1=array();//初始化儲存第二步結果的數組
//preg_match_all("/[x80-xff]+/",$str,$match);//此為GBK使用
preg_match_all("/[x{4e00}-x{9fa5}]{2,}+/u",$str,$match);//此為UTF-8使用
foreach($match[0]as$str1)//循環遍歷匹配到的漢字
{
$leng=iconv_strlen($str1,"UTF-8");//計算漢字其長度
for($i=0;$i<$leng-1;$i++)
{
$temp=mb_substr($str1,$i,2,"UTF-8");//將漢字切割長兩個字,得第一步結果
if(!in_array($temp,$s1))//去除重復,得第二步結果
$s1[]=$temp;//得到的漢字存入數組
}
}
//print_r($s1);//第一二步完成,得數組$s1,可列印查看結果
$s2=file_get_contents("21.txt");//將文件內所有字元讀取成一個字元串
$s2=iconv("","UTF-8",$s2);//將字元串轉碼,否則難免有亂碼
//echo$s2;//可輸出查看文件中的內容
$s="";//初始化最終結果的變數
foreach($s1as$j)//遍歷漢字對
{
if(preg_match("/".$j."/",$s2))//判斷該漢字對是否被包含於文件的文字中
$s.=(""==$s)?$j:"\".$j;//將結果合在$s中
}
echo$s;//得結果,可輸出查看或調用
若有疑問,可追問。
注釋詳細,希望能加分
㈦ PHP高手來指導一下 謝謝啊!
將提交的內容分詞
這方面有好多開源程序都有。比如:ecshop中,搜索商品時會分詞,會將分詞的結果放到ecs_keywords中,在後台有搜索引擎報表統計的;別外,phpcms中也作了分詞,搜索文章時它作分詞處理的。
當然了,php的分詞可能不是很精確的,但基本需求還是可以滿足的。
至於代碼,開源嘛,可以參考參考嘛。。