Co to jest schema ?

Jednym z plików konfiguracyjnych opisujących każde wdrożenie Solr jest plik schema.xml. Opisuje on jedną z najważniejszych rzeczy dotyczącą wdrożenia – strukturę indeksu. Informacje zawarte w tym pliku pozwalają kontrolować, jak zachowuje się Solr podczas indeksowania danych, czy też zadawania zapytań do odpowiednich pól. Schema.xml to jednak nie tylko sama struktura indeksu, to także szczegółowe informacje o typach danych, które mają duży wpływ na zachowanie Solr, a z reguły są traktowane po macoszemu. Tym wpisem postaram się przybliżyć składowe pliku schema.xml.

Plik schema.xml składa się z kilku części:

  • wersji,
  • definicji typów,
  • definicji pól,
  • sekcji copyField,
  • dodatkowych definicji.

Wersja

Pierwszą rzeczą na jaką natrafimy w pliku schema.xml jest wersja. Jest to informacja o tym jak Solr ma traktować niektóre z atrybutów w pliku schema.xml. Definicja ta wygląda następująco:

<schema name="example" version="1.3">

Należy pamiętać, iż nie jest to definicja wersji z punktu widzenia naszego projektu. W tym momencie Solr obsługuje 4 wersje pliku schema.xml:

  • 1.0 – nie istniał atrybut multiValued, wszystkie pola były domyślnie wielowartościowe.
  • 1.1 – wprowadzono atrybut multiValued, domyślna wartość atrybutu to false.
  • 1.2 – wprowadzono atrybut omitTermFreqAndPositions, domyślna wartość to true dla wszystkich pól, oprócz pól tekstowych.
  • 1.3 – usunięto opcjonalną możliwość kompresji pól.

Definicje typów

Definicje typów można logicznie podzielić na dwie oddzielne sekcje – typy proste i typy złożone. Typy proste w przeciwieństwie do typów złożonych nie posiadają zdefiniowanych filtrów i tokenizera.

Typy proste

Kolejnymi definicjami, na jakie trafimy w pliku schema.xml są definicje typów z których składać się będzie nasz indeks. Każdy z typów opisany jest szeregiem atrybutów, które opisują zachowanie danego typu. Na początek kilka atrybutów, które opisują każdy typ:

  • name – nazwa typu, atrybut wymagany,
  • class – klasa, która odpowiada za implementację typu. Warto pamiętać, że klasy standardowo dostarczane z Solr będą miały nazwy z przedrostkiem ‚solr’.

Oprócz dwóch wymienionych powyżej, typy mogą mieć jeszcze następujące atrybuty opcjonalne:

  • sortMissingLast – atrybut określający, jak mają być traktowane wartości w polu opartym o ten typ podczas sortowania. W przypadku ustawienia na wartość true na końcu listy wyników zawsze będą dokumenty nie posiadające wartości w polach oparty o dany typ – bez względu na to, czy sortujemy rosnąco, czy malejąco. Domyślna wartość atrybutu to false. Atrybut może być stosowany, tylko w przypadku typów, które przez Lucene traktowane są jako string.
  • sortMissingFirst – atrybut określający, jak mają być traktowane wartości w polu opartym o ten typ podczas sortowania. W przypadku ustawienia na wartość true na początku listy wyników zawsze będą dokumenty nie posiadające wartości w polach oparty o dany typ – bez względu na to, czy sortujemy rosnąco, czy malejąco. Domyślna wartość atrybutu to false. Atrybut może być stosowany, tylko w przypadku typów, które przez Lucene traktowane są jako string.
  • omitNorms – atrybut określający, czy podczas analizy mają być wyliczane normalizacje.
  • omitTermFreqAndPositions – atrybut określający, czy podczas analizy ma być pomijane wyliczanie częstotliwości poszczególnych termów oraz ich pozycji w dokumencie.
  • indexed – atrybut określający, czy pola oparte o ten typ mają przechowywać oryginalne wartości.
  • positionIncrementGap – co ile pozycji (a dokładniej pozycji tokenów w strumieniu tokenów) ma być wyliczane trafienie.

Warto pamiętać, iż w przypadku domyślnego ustawienia atrybutów sortMissingLast i sortMissingFirst Lucene będzie stosować zachowanie polegające na umieszczeniu dokumentów z pustymi wartościami na początku w przypadku sortowania rosnącego, a na końcu listy wyników w przypadku sortowania malejącego.

Kolejną opcją typów prostych, jednak dotyczącą tylko nowych typów liczbowych (typy Trie*Field), jest następujący atrybut:

  • precisionStep – atrybut określający ilość bitów precyzji. Im większa ilość bitów, tym szybsze zapytania oparte o przedziały liczbowe. Wiąże się to jednak także ze wzrostem wielkości indeksu, jako, że indeksowanych jest więcej wartości. Ustawienie wartości atrybutu na 0 wyłącza funkcjonalność indeksowania na różnych precyzjach.

Przykładem zdefiniowanego typu prostego może być na przykład:

<fieldType name="string" class="solr.StrField" sortMissingLast="true" omitNorms="true"/>

Typy złożone

Oprócz typów prostych, plik schema.xml może zawierać typy składające się z tokenizera oraz filtrów. Tokenizer odpowiada za podzielenie zawartości pola na tokeny, natomiast filtry odpowiadają za dalszą analizę. Na przykład typ, który odpowiada za przechowywanie tekstów w języku polskim, mogłoby składać się z tokenizera odpowiadającego za dzielenie słów na podstawie białych znaków oraz kropek i przecinków, a przykładowe filtry mogłyby odpowiadać za sprowadzanie powstałych tokenów do małych liter, dalsze dzielenie tokenów (np. na podstawie myślników), a następnie sprowadzanie tokenów do formy podstawowej.

Typy złożone, tak jak typy proste, mają swoją nazwę (atrybut name) oraz klasę która odpowiada za implementację (atrybut class). Mogą się także charakteryzować innymi atrybutami opisanymi w przypadku typów prostych (na tych samych zasadach). Dodatkowo jednak typy złożone mogą posiadać definicję tokenizera oraz filtrów, które mają być wykorzystane na etapie indeksowania, jak i na etapie zadawania zapytań. Jak zapewne większość wie, dla danego etapu (indeksowanie, bądź zadawanie zapytań) może być zdefiniowany szereg filtrów oraz tylko i wyłącznie jeden tokenizer. Przykładowo, tak wygląda definicja typu tekstowego w przykładowej instalacji dostarczanej razem z Solr:

<fieldType name="text" class="solr.TextField" positionIncrementGap="100" autoGeneratePhraseQueries="true">
   <analyzer type="index">
      <tokenizer class="solr.WhitespaceTokenizerFactory"/>
      <filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true" />
      <filter class="solr.WordDelimiterFilterFactory" generateWordParts="1" generateNumberParts="1" catenateWords="1" catenateNumbers="1" catenateAll="0" splitOnCaseChange="1"/>
      <filter class="solr.LowerCaseFilterFactory"/>
      <filter class="solr.KeywordMarkerFilterFactory" protected="protwords.txt"/>
      <filter class="solr.PorterStemFilterFactory"/>
   </analyzer>
   <analyzer type="query">
      <tokenizer class="solr.WhitespaceTokenizerFactory"/>
      <filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true"/>
      <filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true" />
      <filter class="solr.WordDelimiterFilterFactory" generateWordParts="1" generateNumberParts="1" catenateWords="0" catenateNumbers="0" catenateAll="0" splitOnCaseChange="1"/>
      <filter class="solr.LowerCaseFilterFactory"/>
      <filter class="solr.KeywordMarkerFilterFactory" protected="protwords.txt"/>
      <filter class="solr.PorterStemFilterFactory"/>
   </analyzer>
</fieldType>

Warto zauważyć dodatkowy atrybut dla pola tekstowego:

  • autoGeneratePhraseQueries

Atrybut odpowiada za to, jak zachowują się filtry przy rozdzielaniu tokenów. Niektóre z filtrów (taki, jak np. WordDelimiterFilter) pozwala na dzielenie słów np. za pomocą znaku myślnika. Ustawienie atrybutu na wartość true (wartość domyślna) powoduje automatyczne generowanie zapytań o frazę, czyli tzw. PhraseQueries. Oznacza to, że np. dla słowa „wi-fi”, które zostanie rozbite przez filtr WordDelimiterFilter na słowa „wi” oraz „fi” zostanie wygenerowane zapytanie pole:"wi fi", a nie zapytanie pole:wi OR pole:fi. Należy jednak pamiętać, iż atrybut ten potrafi gubić się w przypadku pól, które mają zdefiniowany tokenizer dzielący słowa inaczej, niż po białych znakach.

Wracając do definicji typu. Jak widać, przykład który podałem ma dwie główne sekcje:

<analyzer type="index">

oraz

<analyzer type="query">

Pierwsza z sekcji odpowiada za definicję typu, która będzie użyta w przypadku indeksowania dokumentów, druga sekcja odpowiada za definicję typu używaną w przypadku zapytań do pól opartych o ten typ. Warto wiedzieć, że jeżeli chcemy korzystać z tej samej definicji dla indeksowania i zadawania zapytań, możemy zrezygnować z obu sekcji. Wtedy nasza definicja typu wyglądałaby na przykład następująco:

<fieldType name="text" class="solr.TextField" positionIncrementGap="100" autoGeneratePhraseQueries="true">
   <tokenizer class="solr.WhitespaceTokenizerFactory"/>
   <filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true" />
   <filter class="solr.WordDelimiterFilterFactory" generateWordParts="1" generateNumberParts="1" catenateWords="1" catenateNumbers="1" catenateAll="0" splitOnCaseChange="1"/>
   <filter class="solr.LowerCaseFilterFactory"/>
   <filter class="solr.KeywordMarkerFilterFactory" protected="protwords.txt"/>
   <filter class="solr.PorterStemFilterFactory"/>
</fieldType>

Jak już wspomniałem w definicji każdego typu złożonego występuje jeden tokenizer oraz szereg filtrów (choć nie koniecznie). Nie będę opisywał poszczególnych opcji każdego z filtrów oraz tokenizerów dostępnych standardowo z Solr. Informacje te dostępne są pod następującym adresem: http://wiki.apache.org/solr/AnalyzersTokenizersTokenFilters.

Na koniec chciałem dodać ważną rzecz. Począwszy od Solr 1.4 tokenizer nie musi być pierwszym mechanizmem jaki zajmuje się analizą danego pola – zostały wprowadzone nowe filtry tzw. Char Filters, które operują na nietokenizowanym jeszcze polu i dopiero później przekazują wynik do tokenizera. Warto o tym wiedzieć, ponieważ może się to kiedyś przydać.

Typy wielowymiarowe

Na koniec zostawiłem sobie mały dodatek – opis nowości w Solr 1.4 – pól wielowymiarowych, czyli pól składających się z szeregu innych pól. Ogólnie można powiedzieć, iż założenie tego typu pól było proste – umożliwić przechowywanie w Solr par, trójek, czy większej ilości powiązanych ze sobą danych, takich jak na przykład współrzędne geograficzne punktu. W praktyce realizowane jest to za pomocą pól dynamicznych, jednak pozwolę sobie nie wgłębiać się w szczegóły implementacji. Przykładowa definicja typu, składającego się z dwóch pól:

<fieldType name="location" class="solr.PointType" dimension="2" subFieldSuffix="_d"/>

Oprócz standardowych atrybutów name oraz class pojawiają się dwa nowe:

  • dimension – ilość wymiarów (atrybut wykorzystywany przez klasę solr.PointType).
  • subFieldSuffix – przyrostek, jaki będzie dodawany do pól dynamicznych wchodzących w skład pola. Ważne aby pamiętać, iż tak zdefiniowane pole stworzy trzy pola w indeksie – pole oparte o typ location oraz dwa pola dynamiczne.

Definicje pól

Definicje pól to kolejna sekcja w pliku schema.xml, to sekcja, która teoretycznie powinna interesować nas najbardziej podczas projektowania indeksu Solr. Z reguły znajdziemy tutaj dwa rodzaje definicji pól:

  1. Pola statyczne
  2. Pola dynamiczne

Pola te są różnie traktowane przez Solr. Pierwszy typ pól, to pola, które dostępne są pod jedną nazwą. Pola dynamiczne, jako nazwę mają proste wyrażenie regularne (nazwa zaczynająca się lub kończąca się znakiem ‚*’). Należy pamiętać, iż Solr najpierw wybiera pole statyczne, a dopiero później pola dynamiczne. Dodatkowo w przypadku nazwy pola, która pasuje do więcej, niż jednej definicji, wybrane zostanie pole z dłuższą definicją nazwy.

Wracając do definicji pól (zarówno statycznych, jak i dynamicznych), składają się one z następujących atrybutów:

  • name – nazwa pola (atrybut wymagany).
  • type – typ pola, czyli jeden z typów zdefiniowanych wcześniej (atrybut wymagany).
  • indexed – czy pole ma być indeksowane (ustawiamy na wartość true, jeżeli chcemy wyszukiwać lub sortować po tym polu).
  • stored – czy mają być przechowywane oryginalne wartości (ustawiamy na wartość true, jeżeli chcemy pobierać oryginalną wartość przekazaną do tego pola).
  • omitNorms – czy ma być pomijane wyliczanie norm dla tego pola (ustawiamy na wartość true dla pól, dla których będziemy stosować wyszukiwanie pełnotekstowe).
  • termVectors – ustawiamy na wartość true w przypadku kiedy chcemy przechowywać tzw. wektor termów. Domyślna wartość parametru, to wartość false. Niektóre funkcjonalności wymagają ustawienia tego parametru na true (np. MoreLikeThis, czy FastVectorHighlighting).
  • termPositions – ustawiamy na wartość true, jeżeli chcemy aby wraz z wektorem przechowywane były pozycje termów. Ustawienie na wartość true spowoduje wzrost wielkości indeksu.
  • termOffsets – ustawiamy na wartość true, jeżeli chcemy aby wraz z wektorem termów przechowywane były przesunięcia. Ustawienie na wartość true spowoduje wzrost wielkości indeksu.
  • default – domyślna wartość jaka ma zostać nadana polu, jeżeli w dokumencie nie było podanej żadnej wartości.

Poniżej przykładowe definicje pól:

<field name="id" type="string" indexed="true" stored="true" required="true" />
<field name="includes" type="text" indexed="true" stored="true" termVectors="true" termPositions="true" termOffsets="true" />
<field name="timestamp" type="date" indexed="true" stored="true" default="NOW" multiValued="false"/>
<dynamicField name="*_i" type="int" indexed="true" stored="true"/>

Na koniec jeszcze dodatkowa informacja o której warto pamiętać. Oprócz atrybutów wymienionych powyżej przy definicji pola możemy nadpisywać atrybuty jakie zostały zdefiniowane dla typu (np. czy pole ma być wielowartościowe – z powyższego przykładu pole o nazwie timestamp). Czasami taka funkcjonalność może się przydać, jeżeli potrzebujemy specyficznego pola, którego typ różni się nieznacznie od innego typu (tak jak w przykładzie – tylko atrybutem multiValued). Oczywiście należy pamiętać o ograniczeniach nakładanych na poszczególne atrybuty związane z typami.

Sekcja copyField

W skrócie sekcja odpowiadająca za kopiowanie zawartości pól do innych pól. Definiujemy z jakiego pola ma być skopiowana zawartość oraz do jakiego pola. Należy pamiętać, iż kopiowana jest zawartość przed analizą, czy wartość jaka przychodzi w danych. Przykład definicji copyField:

<copyField source="category" dest="text"/>

W gwoli ścisłości, występujące atrybuty oznaczają:

  • source – pole źródłowe,
  • dest – pole docelowe.

Dodatkowe definicje

1. Zdefiniowanie unikalnego klucza

Definicja unikalnego klucza, dzięki któremu możliwe będzie jednoznaczne zidentyfikowanie dokumentu. Zdefiniowanie unikalnego klucza nie jest konieczne, ale jest zalecane. Przykładowa definicja:

<uniqueKey>id</uniqueKey>

2. Zdefiniowanie domyślnego pola wyszukiwania

Sekcja odpowiadająca za zdefiniowanie domyślnego pola, w którym Solr ma wyszukiwać w przypadku kiedy nie zostało podane żadne pole. Przykładowa definicja:

<defaultSearchField>content</defaultSearchField>

3. Zdefiniowanie domyślnego operatora logicznego

Sekcja odpowiadająca za definicje domyślnego operatora logicznego, który będzie używany, jeżeli nie zostanie podany żaden operator logiczny. Przykładowa definicja wygląda w następujący sposób:

<solrQueryParser defaultOperator="OR"/>

Możliwe wartości to: OR oraz AND.

4. Zdefiniowanie podobieństwa

Na koniec zostaje nam zdefiniowanie podobieństwa, jakie będziemy wykorzystywać. Jest to raczej temat na inny wpis, należy jednak wiedzieć, iż w razie konieczności mamy możliwość zmiany domyślnego podobieństwa (aktualnie w trunku Solr są już dwie klasy obsługujące podobieństwo). Przykładowa definicja wygląda następująco:

<similarity class="pl.solr.similarity.CustomSimilarity" />

Kilka słów na koniec

Powyżej przedstawione informacje powinny dać pewien wgląd na temat jakim jest plik schema.xml oraz za co odpowiadają poszczególne sekcje w tym pliku. W niedługim czasie postaram się napisać, czego wystrzegać się podczas projektowania indeksu.

This entry was posted on poniedziałek, Sierpień 16th, 2010 at 16:07 and is filed under Solr, Tutorial. You can follow any responses to this entry through the RSS 2.0 feed. You can leave a response, or trackback from your own site.

6 komentarzy to “Co to jest schema ?”

  1. Aleks Says:

    Cześć. Mam pytanie, czy są jakieś rozwiązania odnośnie przykręcenia polskiego stemmera do solr? Nie znałazłem tutaj

  2. gr0 Says:

    W wersji 1.4.1 nie ma – przynajmniej w standardowej paczce z Solr. W wersji 1.5, która jest w SVN w branch’u branch_3x jest już taka możliwość – filtr nazywa się StempelFilter i znajduje się w pakiecie org.apache.lucene.analysis.stempel

  3. Paweł Says:

    Czy mógłby mi ktoś podać namiary, gdzie mógłbym znaleźć informacje w jaki sposób krok po kroku skonfigurować polski stemmer?

  4. gr0 Says:

    Proszę spojrzeć na http://lucene.apache.org/java/3_2_0/api/contrib-stempel/org/apache/lucene/analysis/pl/PolishAnalyzer.html i przyległości

  5. Paweł Says:

    Dziękuję. Czekając na odpowiedź udało mi się uruchomić stemming.
    Mam jednak uwagi co do jakości zwracanych wyników. W jaki sposób można poprawić słownik dla stemmera?

    Problem polega na tym, że np. dla zapytań: „projekcie”, „projektami” nie znajduje mi dokumentów, w których mam słowo „projekt”.

  6. gr0 Says:

    Są trzy możliwości:
    1. Budowanie własnej tablicy dla stempla, czyli polskiego stemmera wykorzystywanego w Solr. Nie wiem, czy jest gdzieś dobry tutorial do tego.
    2. Zintegrowanie morfologika z Solr. W tym wypadku konieczne będzie zaimplementowanie odpowiedniego filtra, który skorzysta z morfologika.
    3. Skorzystanie z http://wiki.apache.org/solr/LanguageAnalysis#solr.StemmerOverrideFilterFactory i własnych słowników stemmingu.

    Możliwe, że wystarczy zbudowanie własnego słownika i wykorzystanie StemmerOverrideFilterFactory.