㈠ 请教下,php文章标题的自动分词(Tag)是怎么做的
文章分词需要程序来完成给你推荐个工具,你看看是不是你需要的分词,这个是灵玖软件推出的你可以找一下。
㈡ php 要从文章内容,提取关键词,要怎么写!
提取关键词,你必须得有个词库。然后根据词库匹配文章内容。词库越多效率越低,文章内容长度越长效率越低。
网上针对php有相干的分词算法,你可以搜
”SCWS
中文分词“
来看一下。你可以根据里面的例子来做扩展
㈢ 求一个PHP的分词程序,比如我有一句话:我是个好学生,分词后: 我 是 一个 好 学生 谢谢
这个程序几乎是没有人能提供给你。为什么?
因为网络的翻译 其中就涉及到 语句分词,这是一个很高深的技术。而且还需要分词的词典,规则大概是包括所有汉字,分词规则,语句等等。
能做好这个技术,几千万都能卖出去。
㈣ php 一般使用什么中文分词扩展
Robbe是建立在Friso中文分词器上的一个高性能php中文分词扩展,除了提供了基本的分词函数以外,还提供一些编码转换函。
Robbe完整版本(PHP测试程序, 开发帮助文档, WinNT下php各版本的dll文件)下载:code.google.com/p/robbe
一. 关于Robbe:
robbe是建立在friso中文分词上的一个高性能php中文分词扩展。了解friso
1.目前最高版本:friso 1.6.0,【源码无需修改即可在各平台下编译运行】
2.mmseg四种过滤算法,分词准确率达到了98.41%。
3.详细功能,请访问friso官方首页:friso [code.google.com/p/friso]
二. Robbe分词速度:
测试环境:2.8GHZ/2G/Ubuntu
简单模式:3.1M/秒
复杂模式:1.4M/秒
(因为php中的大量字符串的复制,性能比friso有些下降)。
㈤ php 中文分词难题 sphinx
1.看一下bin目录是否存在search.exe
如果不存在,就不能用search命令,看你下载到的是什么版本,有些版本是没有这个文件的。
2.Query()的两个参数,第一个是搜索的关键词,第二个是索引。
没有结果的话,请确保你的数据中有那个关键词,还要确保索引存在,并配置正确。
以前弄这个的时候,我写了篇笔记:https://my.oschina.net/agui1989/blog/738392
有兴趣可以去看一下。
㈥ php 提取中文后简单分词
$str="汉字一二3四5六七八,九十六七...";
$s1=array();//初始化储存第二步结果的数组
//preg_match_all("/[x80-xff]+/",$str,$match);//此为GBK使用
preg_match_all("/[x{4e00}-x{9fa5}]{2,}+/u",$str,$match);//此为UTF-8使用
foreach($match[0]as$str1)//循环遍历匹配到的汉字
{
$leng=iconv_strlen($str1,"UTF-8");//计算汉字其长度
for($i=0;$i<$leng-1;$i++)
{
$temp=mb_substr($str1,$i,2,"UTF-8");//将汉字切割长两个字,得第一步结果
if(!in_array($temp,$s1))//去除重复,得第二步结果
$s1[]=$temp;//得到的汉字存入数组
}
}
//print_r($s1);//第一二步完成,得数组$s1,可打印查看结果
$s2=file_get_contents("21.txt");//将文件内所有字符读取成一个字符串
$s2=iconv("","UTF-8",$s2);//将字符串转码,否则难免有乱码
//echo$s2;//可输出查看文件中的内容
$s="";//初始化最终结果的变量
foreach($s1as$j)//遍历汉字对
{
if(preg_match("/".$j."/",$s2))//判断该汉字对是否被包含于文件的文字中
$s.=(""==$s)?$j:"\".$j;//将结果合在$s中
}
echo$s;//得结果,可输出查看或调用
若有疑问,可追问。
注释详细,希望能加分
㈦ PHP高手来指导一下 谢谢啊!
将提交的内容分词
这方面有好多开源程序都有。比如:ecshop中,搜索商品时会分词,会将分词的结果放到ecs_keywords中,在后台有搜索引擎报表统计的;别外,phpcms中也作了分词,搜索文章时它作分词处理的。
当然了,php的分词可能不是很精确的,但基本需求还是可以满足的。
至于代码,开源嘛,可以参考参考嘛。。