网创优客建站品牌官网
为成都网站建设公司企业提供高品质网站建设
热线:028-86922220
成都专业网站建设公司

定制建站费用3500元

符合中小企业对网站设计、功能常规化式的企业展示型网站建设

成都品牌网站建设

品牌网站建设费用6000元

本套餐主要针对企业品牌型网站、中高端设计、前端互动体验...

成都商城网站建设

商城网站建设费用8000元

商城网站建设因基本功能的需求不同费用上面也有很大的差别...

成都微信网站建设

手机微信网站建站3000元

手机微信网站开发、微信官网、微信商城网站...

建站知识

当前位置:首页 > 建站知识

PHP中文分词扩展

以前做过自然语言处理(nlp)的相关后端开发,之前也谈过搜索引擎Elasticsearch,它们都离不开一个基础性的工具~分词,放到Python里面也是处理文本的一个很基础常用的东西了,大致干的是这么一件事:将整句话按照一定匹配方法分成n个词语。例如:‘百度一下,你就知道’,可分为‘百度’、‘你’、‘就’、‘知道’,这几个词。

玉溪网站制作公司哪家好,找创新互联公司!从网页设计、网站建设、微信开发、APP开发、响应式网站等网站项目制作,到程序开发,运营维护。创新互联公司公司2013年成立到现在10年的时间,我们拥有了丰富的建站经验和运维经验,来保证我们的工作的顺利进行。专注于网站建设就选创新互联公司

由于这是个基础性工具,Python作为一个机器学习,搞nlp的选择语言,基本上是调个包的事情,但Python的痛点大家也知道~普遍效率低!当时也没拜托搞Java的同志帮忙,就琢磨PHP能不能也搞一个,然后,就有了下面这篇介绍~

PHP中文分词扩展

安装

git clone https://github.com/jonnywang/phpjieba.git

cd phpjieba/cjieba

make

cd ..

phpize (如果是多版本PHP,则是例如:/usr/local/php/71/bin/phpize)

./configure(./configure --with-php-config=/usr/local/php/71/bin/php-config)

make

make install

php.ini

加上

extension=jieba.so

jieba.enable=1

jieba.dict_path=/usr/local/phpjieba/data/softs/jz/cjieba/dict #指向jieba库dict目录

function

array jieba(string $text, bool use_extract = false, long extract_limit = 10)

examples:

ini_set('jieba.enable', 1); //php.ini 配置了可不用写

ini_set('jieba.dict_path', '/usr/local/data/softs/phpjieba/cjieba/dict'); //php.ini 配置了可不用写

try {

$result = jieba('小明硕士毕业于中国科学院计算所,后在日本京都大学深造');

echo implode('/', $result) . PHP_EOL;

//计算所/小明/京都大学/深造/硕士/中国科学院/毕业/日本

$result = jieba('小明硕士毕业于中国科学院计算所,后在日本京都大学深造', 1, 50);

echo implode('/', $result) . PHP_EOL;

//小明/硕士/毕业/于/中国/科学/学院/科学院/中国科学院/计算/计算所/,/后/在/日本/京都/大学/京都大学/深造

$result = jieba('他心理健康', 1);

echo implode('/', $result) . PHP_EOL;

//他/心理/健康/心理健康

$result = jieba('this is a demo, my name is jony', 1, 10);

echo implode('/', $result) . PHP_EOL;

//demo/jony

$result = jieba('this is a demo, my name is jony');

echo implode('/', $result) . PHP_EOL;

//this/ /is/ /a/ /demo/,/ /my/ /name/ /is/ /jony

$result = jieba('小明硕士毕业于中国科学院计算所,后在日本京都大学深造', 2);

print_r($result);

/*

Array

(

[小明] => x

[硕士] => n

[毕业] => n

[于] => p

[中国科学院] => nt

[计算所] => n

=> x

[后] => f

[在] => p

[日本] => ns

[京都大学] => nz

[深造] => v

)

*/

} catch (Exception $e) {

echo $e->getMessage . PHP_EOL;

}

还有就是,如果有需要完整匹配的词语,可放到dict文件夹下,这样就不会拆分了。性能上,别的不说,比起Python的分词包,那是不出意外的秒杀,哈哈~


本文标题:PHP中文分词扩展
文章起源:http://bjjierui.cn/article/chsdcd.html

其他资讯