MySQL全文索引实现简单版搜索引擎实例代码

吾爱主题 阅读:99 2024-04-05 14:21:50 评论:0

前言

  • 只有Innodb和myisam存储引擎能用全文索引(innodb支持全文索引是从mysql5.6开始的)
  • char、varchar、text类型字段能创建全文索引(fulltext index type)
  • 全文索引的基于关键词的,如何区分不同的关键词了,就要用到分词(stopword)
  • 英文单词用空格,逗号进行分词;中文分词不方便(一个句子不知道怎样区分不同的关键词)
  • 内置分词解析器ngram支持中文,日文,韩文(将句子分成固定数字的短语)
  • 当对表写入大量数据时,写入数据后再创建全文索引的速度更快(减少了维护索引的开销)
  • 全文索引的原理的倒排索引(一种数据结构),一般利用关联数组,在辅助表中存储单词与文档中所在位置的映射

使用

用MATCH() ... AGAINST 方式来进行搜索

match()表示搜索的是那个列,against表示要搜索的是那个字符串

查看默认的分词(以这些词来区分不同的关键词);也可以自定义分词,以这些词来区分不同的关键词

?
1 SELECT * FROM information_schema.INNODB_FT_DEFAULT_STOPWORD;

?
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 + -------+ | value | + -------+ | a   | | about | | an  | | are  | | as  | | at  | | be  | | by  | | com  | | de  | | en  | | for  | | from |

三种类型的全文搜索方式

natural language search(自然语言搜索)

通过MATCH AGAINST 传递某个特定的字符串来进行检,默认方式

boolean search(布尔搜索)

为检索的字符串增加操作符,如“+”表示必须包含,"-"不包含,"*" 表示通配符,即使传递的字符串较小或出现在停词中,也不会被过滤掉

query expansion search(查询扩展搜索)

搜索字符串用于执行自然语言搜索,然后,搜索返回的最相关行的单词被添加到搜索字符串,并且再次进行搜索,查询将返回来自第二个搜索的行

相关参数

配置相关参数

innodb_ft_min_token_size

默认3,表示最小3个字符作为一个关键词,增大该值可减少全文索引的大小

innodb_ft_max_token_size

默认84,表示最大84个字符作为一个关键词,限制该值可减少全文索引的大小

ngram_token_size

默认2,表示2个字符作为内置分词解析器的一个关键词,如对“abcd”建立全文索引,关键词为'ab','bc','cd'
当使用ngram分词解析器时,innodb_ft_min_token_size和innodb_ft_max_token_size 无效

注意 这三个参数均不可动态修改,修改了这些参数,需重启MySQL服务,并重新建立全文索引

测试innodb引擎使用全文索引

准备

1、目标

  • 查询文章中是否含有某个关键词;一系列文章出现某个关键词的次数
  • 查询文章的标题是否含有某个关键词

2、设置以下参数减少磁盘IO压力

?
1 2 SET GLOBAL sync_binlog=100; SET GLOBAL innodb_flush_log_at_trx_commit=2;

3、导入1kw 数据进行测试全文索引

该数据来源网上搜索

提取码:iyip

4、某个文章表 的结构

?
1 2 3 4 5 6 7 8 9 10 CREATE TABLE `article` (   `id` bigint (10) NOT NULL ,   `url` varchar (1024) CHARACTER SET latin1 NOT NULL DEFAULT '' ,   `title` varchar (256) NOT NULL DEFAULT '' ,   `source` varchar (32) DEFAULT '' COMMENT '真实来源' ,   `keywords` varchar (32) DEFAULT NULL ,   `publish_time` timestamp NULL DEFAULT NULL ,   PRIMARY KEY (`id`),   KEY `title_idx` (`title`) ) ENGINE=InnoDB

使用myloader 多线程导入测试数据

?
1 2 3 先把测试数据进行解压 tar -zxf mydumper_dump_article. tar .gz time myloader -u $user -p $ passwd -S $socket -t 32 -d /datas/dump_article - v 3

5、导入数据后总数据量和数据文件、索引文件大小

?
1 2 3 4 5 6 7 8 9 10 11 12 13 14 SELECT COUNT (*) FROM `article`; + ----------+ | COUNT (*) | + ----------+ | 10000000 | + ----------+ 1 row in set (7.85 sec)   SELECT   table_name,  CONCAT(FORMAT( SUM (data_length) / 1024 / 1024,2), 'M' ) AS dbdata_size,  CONCAT(FORMAT( SUM (index_length) / 1024 / 1024,2), 'M' ) AS dbindex_size,  CONCAT(FORMAT( SUM (data_length + index_length) / 1024 / 1024 / 1024,2), 'G' ) AS `db_size(G)`,  AVG_ROW_LENGTH,table_rows,update_time FROM  information_schema.tables WHERE table_schema = DATABASE () and table_name= 'article' ; + ------------+-------------+--------------+------------+----------------+------------+---------------------+ | table_name | dbdata_size | dbindex_size | db_size(G) | AVG_ROW_LENGTH | table_rows | update_time     | + ------------+-------------+--------------+------------+----------------+------------+---------------------+ | article  | 3,710.00M  | 1,003.00M  | 4.60G   |      414 |  9388739 | 2019-07-05 15:31:37 | + ------------+-------------+--------------+------------+----------------+------------+---------------------+

使用默认方式创建全文索引

1、该表已有关键词字段(对文章内容的简述),并以“,”作为分词符

?
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 select keywords from article limit 10; + -------------------------------------------------+ | keywords                    | + -------------------------------------------------+ | NULL                      | | NULL                      | | ,婚姻,爱情                   | | 发型,偏分,化妆,时尚               | | 小A,                      | | ,服装搭配,女性,时尚               | | 漂亮,女性                    | | 情人节,东莞,女性                | | 皮肤,护肤,护肤,食品营养,美容,养生        | | 三里屯,北京,时尚                | + -------------------------------------------------+

2、不建全文索引时搜索某个关键词

需要进行全表扫描

?
1 2 3 4 5 6 7 select count (*) from article where keywords like '%时尚%' ; + ----------+ | count (*) | + ----------+ |   163 | + ----------+ 1 row in set (7.56 sec)

3、对关键词字段创建全文索引(以 , 作为分词)

my.cnf配置文件中设置innodb_ft_min_token_size,并重启MySQL服务(最小两个字符作为一个关键词,默认三个字符作为一个关键词)

?
1 2 [mysqld] innodb_ft_min_token_size=2

3.1 设置自定义stopwords(即分词)

?
1 2 3 4 USE mysql; CREATE TABLE my_stopwords(VALUE VARCHAR (30)) ENGINE = INNODB; INSERT INTO my_stopwords(VALUE) VALUE ( ',' ); SET GLOBAL innodb_ft_server_stopword_table = 'mysql/my_stopwords' ;
?
1 2 3 4 5 6 7 SHOW GLOBAL VARIABLES WHERE Variable_name IN ( 'innodb_ft_min_token_size' , 'innodb_ft_server_stopword_table' ); + ---------------------------------+--------------------+ | Variable_name          | Value       | + ---------------------------------+--------------------+ | innodb_ft_min_token_size    | 2         | | innodb_ft_server_stopword_table | mysql/my_stopwords | + ---------------------------------+--------------------+

3.2 创建全文索引

?
1 2 3 alter table article add fulltext index idx_full_keyword(keywords); * [ ] Query OK, 0 rows affected, 1 warning (1 min 27.92 sec) * [ ] Records: 0 Duplicates: 0 Warnings: 1

3.3 剩余磁盘空间需足够,原表4.6G,剩余5.7G磁盘,添加全文索引也会失败

?
1 2 3 4 5 6 7 8 9 10 11 12 13 14 df -h Filesystem      Size Used Avail Use% Mounted on /dev/vda1       7.8G 6.3G 1.2G 85% / tmpfs         1.9G   0 1.9G  0% /dev/shm /dev/mapper/vg_opt-lvol0              19G  12G 5.7G 68% /datas   会创建原表大小的临时文件   8.6K Jul 5 16:19 #sql-5250_3533.frm   4.4G Jul 5 16:20 #sql-ib117-1768830977.ibd     alter table article add fulltext index idx_full_keyword(keywords); ERROR 1114 (HY000): The table 'article' is full

3.4 利用创建的全文索引进行查询某个关键词出现的次数

查询响应时间有了很大的提升,只需0.05s;使用where keywords like '%时尚%' 需要7.56s

?
1 2 3 4 5 6 7 select count (*) from article where match(keywords) against( '%时尚%' ); + ----------+ | count (*) | + ----------+ |   163 | + ----------+ 1 row in set (0.05 sec)

3.5 如需同时完全匹配多个关键词,用布尔全文搜索

?
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 表示完全匹配 "三里屯,北京" 的记录数 select count (*) from article where match(keywords) against( '+三里屯,北京' in boolean mode); + ----------+ | count (*) | + ----------+ |    1 | + ----------+ 1 row in set (0.06 sec)   表示匹配“三里屯” 或者 “北京”的记录数 select count (*) from article where match(keywords) against( '三里屯,北京' ); + ----------+ | count (*) | + ----------+ |    8 | + ----------+ 1 row in set (0.06 sec)

3.6 创建全文索引后,会创建一些其它文件

96K Jul 5 16:30 FTS_00000000000000a7_00000000000000c0_INDEX_1.ibd
96K Jul 5 16:30 FTS_00000000000000a7_00000000000000c0_INDEX_2.ibd
96K Jul 5 16:30 FTS_00000000000000a7_00000000000000c0_INDEX_3.ibd
96K Jul 5 16:30 FTS_00000000000000a7_00000000000000c0_INDEX_4.ibd
128K Jul 5 16:30 FTS_00000000000000a7_00000000000000c0_INDEX_5.ibd
256K Jul 5 16:30 FTS_00000000000000a7_00000000000000c0_INDEX_6.ibd
96K Jul 5 16:29 FTS_00000000000000a7_BEING_DELETED_CACHE.ibd
96K Jul 5 16:29 FTS_00000000000000a7_BEING_DELETED.ibd
96K Jul 5 16:30 FTS_00000000000000a7_CONFIG.ibd
96K Jul 5 16:29 FTS_00000000000000a7_DELETED_CACHE.ibd
96K Jul 5 16:29 FTS_00000000000000a7_DELETED.ibd
- 前6个表示倒排索引(辅助索引表)
- 第7,8个表示包含已删除文档的文档ID(DOC_ID),其数据当前正在从全文索引中删除
- 第9个表示FULLTEXT索引内部状态的信息
- 第10,11个表示包含已删除但尚未从全文索引中删除其数据的文档

使用ngram分词解析器创建全文索引

1、对title字段建立全文索引(该字段没有固定的stopwords 分词,使用ngram分词解析器)

需先在my.cnf 配置文件中设置ngram_token_size(默认为2,2个字符作为ngram 的关键词),并重启mysql服务
这里使用默认的 2

?
1 2 3 4 5 6 7 8 9 10 11 12 13 14 select title from article limit 10; + ------------------------------------------------------------------------------+ | title                                    | + ------------------------------------------------------------------------------+ | worth IT                                  | |Launchpad 江南皮革厂小show                         | |Raw 幕后罕见一刻 “疯子”被抬回后台                      | |Raw:公子大骂老爸你就是个绿茶 公子以一打四                 | |四组30平米精装小户型,海量图片,附户型图                  | |夜店女王性感烟熏猫眼妆                           | |大秀哥重摔“巨石”强森                            | |少女时代 崔秀英 服饰科普 林允儿 黄美英 金泰妍 郑秀晶            |                       |德阳户外踏青,花田自助烧烤                         | + ------------------------------------------------------------------------------+

2、对title字段创建全文索引

?
1 2 3 alter table article add fulltext index ft_index_title(title) with parser ngram; Query OK, 0 rows affected (3 min 29.22 sec) Records: 0 Duplicates: 0 Warnings: 0

3、会创建倒排索引(title字段越长长,创建的倒排索引越大)

112M Jul 5 21:46 FTS_00000000000000a7_00000000000000cd_INDEX_1.ibd
28M Jul 5 21:46 FTS_00000000000000a7_00000000000000cd_INDEX_2.ibd
20M Jul 5 21:46 FTS_00000000000000a7_00000000000000cd_INDEX_3.ibd
140M Jul 5 21:46 FTS_00000000000000a7_00000000000000cd_INDEX_4.ibd
128M Jul 5 21:46 FTS_00000000000000a7_00000000000000cd_INDEX_5.ibd
668M Jul 5 21:46 FTS_00000000000000a7_00000000000000cd_INDEX_6.ibd

4、不建立全文索引搜索title的某个关键词

?
1 2 3 4 5 6 7 8 9 10 11 12 13 14 select count (*) from article where title like '%户外%' ; + ----------+ | count (*) | + ----------+ |  22058 | + ----------+ 1 row in set (8.60 sec)   select count (*) from article where title like '%后台%' ; + ----------+ | count (*) | + ----------+ |   1142 | + ----------+

5、使用全文索引搜索某个关键词

响应时间有很大的提升

?
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 select count (*) from article where match(title) against( '户外' ); + ----------+ | count (*) | + ----------+ |  22058 | + ----------+ 1 row in set (0.07 sec)   select count (*) from article where title like '%后台%' ; + ----------+ | count (*) | + ----------+ |   1142 | + ----------+ 1 row in set (8.31 sec)

6、注意当搜索的关键词字符数大于2 (ngram_token_size定义大小)会出现不一致问题

?
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 普通搜索,实际中出现该关键词的记录数为6 select count (*) from article where title like '%公子大%' ; + ----------+ | count (*) | + ----------+ |    6 | + ----------+ 1 row in set (8.40 sec)   全文搜索,出现关键字的记录数为9443 select count (*) from article where match(title) against( '公子大' ); + ----------+ | count (*) | + ----------+ |   9443 | + ----------+ 1 row in set (0.06 sec)   实际出现该关键字的记录数为1 select count (*) from article where title like '%花田自助%' ; + ----------+ | count (*) | + ----------+ |    1 | + ----------+ 1 row in set (8.33 sec)   全文搜索出现该关键词的记录数为3202 select count (*) from article where match(title) against( '花田自助' ); + ----------+ | count (*) | + ----------+ |   3202 | + ----------+ 1 row in set (0.06 sec)

结论

  • 当mysql 某字段中有固定的stopword 分词(英文的空格符,中文的“,”"-"等),对该字段建立全文索引,能快速搜索出现某个关键词的相关记录信息,实现简单搜索引擎的效果
  • 当mysql 某字段没有固定的stopword 分词,使用内置解析器ngram 可将字段值分成固定数量(ngram_token_size定义大小)的关键词快速进行搜索;当搜索的关键词的字符数量不等于ngram_token_size定义大小时,会出现与实际情况不一致的问题
  • 全文索引能快速搜索,也存在维护索引的开销;字段长度越大,创建的全文索引也越大,会影响DML语句的吞吐量,可用专门的全文搜索引擎ES来做这件事

参考

InnoDB FULLTEXT Indexes

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对服务器之家的支持。

原文链接:https://www.cnblogs.com/YangJiaXin/p/11153579.html

可以去百度分享获取分享代码输入这里。
声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

【腾讯云】云服务器产品特惠热卖中
搜索
标签列表
    关注我们

    了解等多精彩内容