自定义文本搜索配置的行为很容易变得混乱。本节中描述的函数对于测试文本搜索对象很有用。您可以测试完整的配置,或者分别测试解析器和词典。
函数 ts_debug
允许轻松测试文本搜索配置。
ts_debug([config
regconfig
, ]document
text
, OUTalias
text
, OUTdescription
text
, OUTtoken
text
, OUTdictionaries
regdictionary[]
, OUTdictionary
regdictionary
, OUTlexemes
text[]
) returns setof record
ts_debug
显示由解析器生成并由配置的词典处理的 document
的每个标记的信息。它使用 config
指定的配置,如果省略该参数,则使用 default_text_search_config
。
ts_debug
为解析器在文本中标识的每个标记返回一行。返回的列是:
alias
text
— 标记类型的简称
description
text
— 标记类型的描述
token
text
— 标记的文本
dictionaries
regdictionary[]
— 配置为此标记类型选择的词典
dictionary
regdictionary
— 识别该标记的词典,如果没有则为 NULL
lexemes
text[]
— 识别该标记的词典生成的词素,如果没有则为 NULL
;空数组 ({}
) 表示它被识别为一个停用词
这是一个简单的例子:
SELECT * FROM ts_debug('english', 'a fat cat sat on a mat - it ate a fat rats'); alias | description | token | dictionaries | dictionary | lexemes -----------+-----------------+-------+----------------+--------------+--------- asciiword | Word, all ASCII | a | {english_stem} | english_stem | {} blank | Space symbols | | {} | | asciiword | Word, all ASCII | fat | {english_stem} | english_stem | {fat} blank | Space symbols | | {} | | asciiword | Word, all ASCII | cat | {english_stem} | english_stem | {cat} blank | Space symbols | | {} | | asciiword | Word, all ASCII | sat | {english_stem} | english_stem | {sat} blank | Space symbols | | {} | | asciiword | Word, all ASCII | on | {english_stem} | english_stem | {} blank | Space symbols | | {} | | asciiword | Word, all ASCII | a | {english_stem} | english_stem | {} blank | Space symbols | | {} | | asciiword | Word, all ASCII | mat | {english_stem} | english_stem | {mat} blank | Space symbols | | {} | | blank | Space symbols | - | {} | | asciiword | Word, all ASCII | it | {english_stem} | english_stem | {} blank | Space symbols | | {} | | asciiword | Word, all ASCII | ate | {english_stem} | english_stem | {ate} blank | Space symbols | | {} | | asciiword | Word, all ASCII | a | {english_stem} | english_stem | {} blank | Space symbols | | {} | | asciiword | Word, all ASCII | fat | {english_stem} | english_stem | {fat} blank | Space symbols | | {} | | asciiword | Word, all ASCII | rats | {english_stem} | english_stem | {rat}
为了进行更广泛的演示,我们首先为英语创建一个 public.english
配置和 Ispell 词典:
CREATE TEXT SEARCH CONFIGURATION public.english ( COPY = pg_catalog.english ); CREATE TEXT SEARCH DICTIONARY english_ispell ( TEMPLATE = ispell, DictFile = english, AffFile = english, StopWords = english ); ALTER TEXT SEARCH CONFIGURATION public.english ALTER MAPPING FOR asciiword WITH english_ispell, english_stem;
SELECT * FROM ts_debug('public.english', 'The Brightest supernovaes'); alias | description | token | dictionaries | dictionary | lexemes -----------+-----------------+-------------+-------------------------------+----------------+------------- asciiword | Word, all ASCII | The | {english_ispell,english_stem} | english_ispell | {} blank | Space symbols | | {} | | asciiword | Word, all ASCII | Brightest | {english_ispell,english_stem} | english_ispell | {bright} blank | Space symbols | | {} | | asciiword | Word, all ASCII | supernovaes | {english_ispell,english_stem} | english_stem | {supernova}
在这个例子中,单词 Brightest
被解析器识别为 ASCII word
(别名 asciiword
)。对于此标记类型,词典列表是 english_ispell
和 english_stem
。该单词被 english_ispell
识别,并将其简化为名词 bright
。单词 supernovaes
对于 english_ispell
词典来说是未知的,因此它被传递到下一个词典,幸运的是,它被识别了(实际上,english_stem
是一个雪球词典,可以识别所有内容;这就是它被放置在词典列表末尾的原因)。
单词 The
被 english_ispell
词典识别为停用词(第 12.6.1 节),并且不会被索引。空格也被丢弃,因为配置根本没有为它们提供任何词典。
您可以通过明确指定要查看的列来减少输出的宽度:
SELECT alias, token, dictionary, lexemes FROM ts_debug('public.english', 'The Brightest supernovaes'); alias | token | dictionary | lexemes -----------+-------------+----------------+------------- asciiword | The | english_ispell | {} blank | | | asciiword | Brightest | english_ispell | {bright} blank | | | asciiword | supernovaes | english_stem | {supernova}
以下函数允许直接测试文本搜索解析器。
ts_parse(parser_name
text
,document
text
, OUTtokid
integer
, OUTtoken
text
) returnssetof record
ts_parse(parser_oid
oid
,document
text
, OUTtokid
integer
, OUTtoken
text
) returnssetof record
ts_parse
解析给定的 document
并返回一系列记录,每个记录对应解析产生的每个标记。每个记录都包含一个 tokid
,显示分配的标记类型,以及一个 token
,即标记的文本。例如:
SELECT * FROM ts_parse('default', '123 - a number'); tokid | token -------+-------- 22 | 123 12 | 12 | - 1 | a 12 | 1 | number
ts_token_type(parser_name
text
, OUTtokid
integer
, OUTalias
text
, OUTdescription
text
) returnssetof record
ts_token_type(parser_oid
oid
, OUTtokid
integer
, OUTalias
text
, OUTdescription
text
) returnssetof record
ts_token_type
返回一个表,描述指定的解析器可以识别的每种标记类型。对于每种标记类型,该表给出解析器用来标记该类型标记的整数 tokid
,在配置命令中命名标记类型的 alias
,以及简短的 description
。例如:
SELECT * FROM ts_token_type('default'); tokid | alias | description -------+-----------------+------------------------------------------ 1 | asciiword | Word, all ASCII 2 | word | Word, all letters 3 | numword | Word, letters and digits 4 | email | Email address 5 | url | URL 6 | host | Host 7 | sfloat | Scientific notation 8 | version | Version number 9 | hword_numpart | Hyphenated word part, letters and digits 10 | hword_part | Hyphenated word part, all letters 11 | hword_asciipart | Hyphenated word part, all ASCII 12 | blank | Space symbols 13 | tag | XML tag 14 | protocol | Protocol head 15 | numhword | Hyphenated word, letters and digits 16 | asciihword | Hyphenated word, all ASCII 17 | hword | Hyphenated word, all letters 18 | url_path | URL path 19 | file | File or path name 20 | float | Decimal notation 21 | int | Signed integer 22 | uint | Unsigned integer 23 | entity | XML entity
ts_lexize
函数有助于词典测试。
ts_lexize(dict
regdictionary
,token
text
) returnstext[]
如果词典知道输入的 token
,则 ts_lexize
返回词素数组;如果词典知道该标记但它是停用词,则返回空数组;如果它是未知单词,则返回 NULL
。
示例:
SELECT ts_lexize('english_stem', 'stars'); ts_lexize ----------- {star} SELECT ts_lexize('english_stem', 'a'); ts_lexize ----------- {}
ts_lexize
函数期望单个标记,而不是文本。这是一个可能令人困惑的情况:
SELECT ts_lexize('thesaurus_astro', 'supernovae stars') is null; ?column? ---------- t
同义词库词典 thesaurus_astro
知道短语 supernovae stars
,但 ts_lexize
失败,因为它不解析输入文本,而是将其视为单个标记。使用 plainto_tsquery
或 to_tsvector
来测试同义词库词典,例如:
SELECT plainto_tsquery('supernovae stars'); plainto_tsquery ----------------- 'sn'
如果您在文档中看到任何不正确、与您特定功能的体验不符或需要进一步澄清的内容,请使用此表单来报告文档问题。