h a n lp分词工具应用案例商品图自动推荐功能的应用
本篇分享一个hanlp分词工具应用的案例简单来说就是做一图库让商家轻松方便的配置商品的图片最好是可以一键完成配置的。
先看一下效果图吧
商品单个推荐效果匹配度高的放在最前面
这个想法很好那怎么实现了。分析了一下解决方案步骤
1、 图库建设至少要有图片吧 图片肯定要有关联的商品名称、商品类别、商品规格、关键字等信息。
2、商品分词算法 由于商品名称是商家自己设置的不是规范的所以不可能完全匹配要有好的分词库来找出关键字。还有一点分词库要能够自定义词库最好能动态添加。如果读者不知道什么是分词请自行百度本文不普及这个。
3、推荐匹配度算法肯定要最匹配的放在前面而且要有匹配度分数。商家肯定有图库没有的商品 自动匹配的时候不能随便配置不相关的图片。
先说明一下本文企业没有搜索引擎之类的工具所以本质就靠的是数据库检索。首页让我们先分析一下图库下面是图库的设置界面。
让我们先贴一下图库的表结构
CREATE TABLE`wj_tbl_gal lery` (
`gal lery_id` int(11)NOTNULLAUTO_INCREMENTCOMMENT'主键',
`fi leid` int(11)NOT NULLCOMMENT'文件服务器上的文件ID',
`ptype`tinyint(4)NOT NULL DEFAULT'0'COMMENT'图片类型 0点歌屏点餐图片',
`materialsort`varchar(50)DEFAULT NULLCOMMENT'商品分类',
`materialbrand`varchar(50)DEFAULT NULLCOMMENT'商品品牌',
`materialname`varchar(100)NOT NULLCOMMENT'商品名称',
`material_spec`varchar(50)DEFAULT NULLCOMMENT'商品规格',
`material_al lname`varchar(200)DEFAULTNULLCOMMENT'商品完整名称',
`status`tinyint(4)NOT NULL DEFAULT'0'COMMENT'状态 0正常 1停用 2删除',
`updatedatetime` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATECURRENT_TIMESTAMP COMMENT'更新时间',
`keyword`varchar(200)DEFAULT NULL COMMENT'商品关键字用逗号隔开',
`bstorage`tinyint(4)NOT NULL DEFAULT'0'COMMENT'关键字是否入库0没有 1有',
PRIMARY KEY(`gal lery_id`),
KEY`idx_fi leid` (`fi leid`)
)ENGINE=InnoDBAUTO_INCREMENT=435 DEFAULTCHARSET=utf8COMMENT='图库信息表';数据示例
简单说一下material_al lname是干什么用的呢主要就是拼接商品名称、规则、关键字字段。用来写sql的时候比较方便。关键字字段是干什么用的呢作用有两个。 1是商品可能有多个名字补充名称的。二是给分词库动态添加词库。 图库简单说到这。
再说一下分词库笔者选择的是开源的汉语言分词库-hanlp分词工具
优点是词库大有词性分析可以自定义词库。缺点当然也有就是不支持数据库方法动态读取词库。后面说一下我自己的解决办法。
上代码
分词代码,这时差会去掉一些没用字符。
图5
我们分词就是调用SegmentUti ls.segmentTerm(materialname);
动态添加词库方法private void addCustomerDictory(){
Integer max=gal leryRepository.getMaxGal lery();if(CommonUti ls. isNotEmpty(max) && max > 0 && max >SegmentUti ls.CACHE_GALLERY_ID){int oldid=SegmentUti ls.CACHE_GALLERY_ID;
SegmentUti ls.CACHE_GALLERY_ID=max;
List<String>gal lery=gal leryRepository.getGal lery(oldid,max);if(CommonUti ls. isNotEmpty(gal lery) ){
Map<String,Boolean>dicMap= new HashMap<>();for(String w:gal lery){if(CommonUti ls. isNotEmpty(w)){
String[]array=w.spl it(",");if(CommonUti ls. isNotEmpty(array)){for(String item:array){
String value=item.trim();if(CommonUti ls. isNotEmpty(value)){dicMap.put(value, true);
}
}
}
}
}
Set<String>keys=dicMap.keySet();if(CommonUti ls. isNotEmpty(keys)){
SegmentUti ls. insertCustomDictory(keys);
}
}
}
}
**
*获取关键字
*
*@authordeng
*@date2019年3月13日
*@param gal leryId
*@return
*/
@Query("select keyword from Gal lery a where gal leryId > ?1 and gal leryId<=?2 anda.keyword!=' ' and bstorage=0")publ ic List<String>getGal lery(int bgal leryId, int egal leryId);
@Cacheable(value = CacheConstants.CACHE_GALLERY, keyGenerator =CacheConstants.KEY_GENERATOR_METHOD)
@Query(value = "select gal lery_id from wj_tbl_gal lery a where a.keyword !=' ' andbstorage=0 order bygal lery_id desc l imit 1", nativeQuery=true)publ icIntegergetMaxGal lery();
说一下解决思路 由于ha nlp文档上没有看到从mysql上动态添加词库方法 只有CustomDictionary. insert能动态添加单个实例词库系统如果重启就要重新添加。我就想出一个办法就是分词的时候查一下类的保存的最大图库表的主键是什么如果跟数据库一样就不动态添加。如果小于图库的主键就把没有的那一段用CustomDictionary. insert添加进去。系统一般不重启如果重启就在分词的时候重新添加一下。查询数据库当然都有缓存编辑图库的时候把对应缓存清除一下。这种方式也能支持分布式环境多个实例都是一样处理的。每过一段时间就把图库表的关键字词库搞成文件的词库避免动态添加太多占用太多内存。 自定义词库其实是很重要的任何分词库都不可能包含所有的词库而分词算法是根据词库来展开的可以说词库决定了分词结果的准确性。
让我们看一下分词的效果
商品名称为”雪碧大“的分词结果雪碧/n z,大/a,其中nz表示专有词汇 a表示形容词。再看一下不理想的分词结果
商品品名称:”蕾芙曼金棕色啤酒“,类别名称:啤酒,
分词结果:蕾/ng,芙/n,曼/ag,金/ng,棕色/n,啤酒/nz
很明显分词结果不理想蕾芙曼金棕色其实是一个商品名不能分开。怎么办呢这时候动态添加词汇功能就派上用场了。
再图库关键字时差添加蕾芙曼金棕色啤酒保存一下再看一下分词效果
物品名称:蕾芙曼金棕色啤酒,类别名称:啤酒,分词结果:蕾芙曼金棕色/nz,啤酒/nz
蕾芙曼金棕色被分到了一起达到预期效果这其实就是CustomDictionary. insert(data, "nz1024");再起作用。 hanlp具体API功能请参考官方文档本文就不介绍了。
最后重头戏来了商品图片匹配度分析。作者就是采用了mysql的sql词句的方法搞定了其实就用到了LOCATE函数很简单。 SQL示例如下
SELECTgal lery_id, fi leid,materialname,material_al lname, score
,ROUND(score/4* 100,0)ASrate
FROM(
SELECTa.gal lery_id,a.fi leid,materialname,material_al lname
, IF(LOCATE('雪碧', a.material_al lname), 2,0)+IF(LOCATE('大', a.material_al lname), 1,
0)+IF(LOCATE('饮料',a.material_al lname), 1,0)ASscore
FROMwj_tbl_gal lerya
WHERE a.STATUS=0
AND(a.material_al lnameLIKE'%雪碧%'
ORa.material_al lnameLIKE'%大%'
ORa.material_al lnameLIKE'%饮料%')
)b
ORDERBYscore DESC,materialname
LIMIT0,8
执行结果
可以看出gal lery_id是第一条它的rate的是75满分是100匹配度蛮高的。
说一下匹配度算法原则如果完全匹配就是1百分肯定就上了。然后去除某些关键字后也匹配上了就是90分。最后采用分词算法按照1百分打分其中如果高于50分可以算基本匹配 自动配置图片的时候就可以当成匹配成功。总体原则就是匹配词汇越多分数越多。但是两个字的词汇和5个字的词汇分数是不一样的。还有词性专属词汇理论上应该比形容词分数高。详见下面的calculateWeight代码 自己体会了。publ ic List<Map<String,Object>>queryList(String searchstr, int pagenumber, int pagesize,Stringmaterialsortname,
List<Term>segmentList) {
String name="%"+searchstr+"%";
//先简单搜索完全匹配100分
List<Map<String,Object>>l ist=queryList(name,pagenumber,pagesize, 100);if(CommonUti ls. isEmpty( l ist)) {searchstr=searchstr.replaceAl l("\\s", "");
String regEx="(特价) | (/) | (\\() | (\\)) | ( ) | ( ) | (\\d+ml) | (买.送.) | (/) | (\\*)";searchstr=searchstr.replaceAl l(regEx, "");if(CommonUti ls. isNotEmpty(searchstr)) {name="%"+searchstr+"%";
//简单过滤90分l ist=queryList(name,pagenumber,pagesize,90);
}
//剩下分词靠计算if(CommonUti ls. isEmpty( l ist)) {if(CommonUti ls. isNotEmpty(segmentList)) {l ist = queryListTerm(pagenumber, pagesize, segmentList,materialsortname);
}
//如果只有分类先定10分else if (CommonUti ls. isNotEmpty(materialsortname) )
最近主机参考拿到了一台恒创科技的美国VPS云服务器测试机器,那具体恒创科技美国云服务器性能到底怎么样呢?主机参考进行了一番VPS测评,大家可以参考一下,总体来说还是非常不错的,是值得购买的。非常适用于稳定建站业务需求。恒创科技服务器怎么样?恒创科技服务器好不好?henghost怎么样?henghost值不值得购买?SonderCloud服务器好不好?恒创科技henghost值不值得购买?恒创科技是...
melbicom从2015年就开始运作了,在国内也是有一定的粉丝群,站长最早是从2017年开始介绍melbicom。上一次测评melbicom是在2018年,由于期间有不少人持续关注这个品牌,而且站长貌似也听说过路由什么的有变动的迹象。为此,今天重新对莫斯科数据中心的VPS进行一次简单测评,数据仅供参考。官方网站: https://melbicom.net比特币、信用卡、PayPal、支付宝、银联...
HostNamaste是一家成立于2016年3月的印度IDC商家,目前有美国洛杉矶、达拉斯、杰克逊维尔、法国鲁贝、俄罗斯莫斯科、印度孟买、加拿大魁北克机房。其中洛杉矶是Quadranet也就是我们常说的QN机房(也有CC机房,可发工单让客服改机房);达拉斯是ColoCrossing也就是我们常说的CC机房;杰克逊维尔和法国鲁贝是OVH的高防机房。采用主流的OpenVZ和KVM架构,支持ipv6,免...