<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>analiza &#8211; Solr.pl</title>
	<atom:link href="https://solr.pl/tag/analiza/feed/" rel="self" type="application/rss+xml" />
	<link>https://solr.pl</link>
	<description>All things to be found - Blog related to Apache Solr &#38; Lucene projects - https://solr.apache.org</description>
	<lastBuildDate>Wed, 11 Nov 2020 22:27:51 +0000</lastBuildDate>
	<language>pl-PL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9</generator>
	<item>
		<title>Solr 4.0 i możliwości analizy języka polskiego</title>
		<link>https://solr.pl/2012/04/02/solr-4-0-i-mozliwosci-analizy-jezyka-polskiego/</link>
					<comments>https://solr.pl/2012/04/02/solr-4-0-i-mozliwosci-analizy-jezyka-polskiego/#comments</comments>
		
		<dc:creator><![CDATA[Rafał Kuć]]></dc:creator>
		<pubDate>Mon, 02 Apr 2012 21:27:23 +0000</pubDate>
				<category><![CDATA[Solr]]></category>
		<category><![CDATA[4.0]]></category>
		<category><![CDATA[analiza]]></category>
		<category><![CDATA[analyzer]]></category>
		<category><![CDATA[hunspell]]></category>
		<category><![CDATA[język]]></category>
		<category><![CDATA[lucene]]></category>
		<category><![CDATA[morfologik]]></category>
		<category><![CDATA[polish]]></category>
		<category><![CDATA[polski]]></category>
		<category><![CDATA[solr]]></category>
		<category><![CDATA[solr 4.0]]></category>
		<guid isPermaLink="false">http://sematext.solr.pl/?p=408</guid>

					<description><![CDATA[Ze względu na to, iż wsparcie dla języka polskiego w Lucene (i Solr) jest już od jakiegoś czasu, postanowiłem przyjrzeć się jak zmieni się to wraz z premierą Lucene i Solr w wersji 4.0. Dostępne opcje W obecnej chwili dostępne]]></description>
										<content:encoded><![CDATA[<p>Ze względu na to, iż wsparcie dla języka polskiego w Lucene (i Solr) jest już od jakiegoś czasu, postanowiłem przyjrzeć się jak zmieni się to wraz z premierą Lucene i Solr w wersji 4.0.</p>
<p><span id="more-408"></span></p>
<h3>Dostępne opcje</h3>
<p>W obecnej chwili dostępne są trzy opcje, jeżeli chodzi o analizę języka polskiego:</p>
<ul>
<li>Wykorzystanie możliwości&nbsp; biblioteki Stempel (od wersji 3.1 Solr)</li>
<li>Wykorzystanie&nbsp;możliwości biblioteki Hunspell i słownika języka polskiego (od wersji 3.5 Solr)</li>
<li>Wykorzystanie możliwości biblioteki Morfologik (od wersji 4.0 Solr, <a href="https://issues.apache.org/jira/browse/SOLR-3272" target="_blank" rel="noopener noreferrer">SOLR-3272</a>)</li>
</ul>
<h3>Konfiguracja</h3>
<p>Przyjrzyjmy się konfiguracji każdej z wyżej wymienionych funkcjonalności (należy pamiętać, że poniższe konfiguracje zostały oparte o Solr 4.0).</p>
<h4>Stempel</h4>
<p>W celu dodania stemmingu języka polskiego przy pomocy biblioteki Stempel, to proste dodanie filtra do definicji typu:
</p>
<pre class="brush:xml">&lt;filter class="solr.StempelPolishStemFilterFactory" /&gt;</pre>
<p>Oprócz tego, do <em>SOLR_HOME/lib</em> należy dodać bibliotekę <em>lucene-analyzers-stempel-4.0.jar</em> oraz <em>apache-solr-analysis-extras-4.0.jar</em>. <em></em> Dobrym pomysłem jest także użycie<em>&nbsp;solr.LowerCaseFilterFactory</em> przed Stemplem.</p>
<h4>Hunspell</h4>
<p>Podobnie, jak w powyższym przypadku, skorzystanie z Hunspell&#8217;a to dodanie filtra do definicji typu. Na przykład w taki sposób:
</p>
<pre class="brush:xml">&lt;filter class="solr.HunspellStemFilterFactory" dictionary="pl_PL.dic" affix="pl_PL.aff" ignoreCase="true" /&gt;</pre>
<p>Parametry <em>dictionary</em> oraz <em>affix</em> odpowiadają za definicję słownika z którego korzystamy. Natomiast parametr <em>ignoreCase</em> ustawiony na wartość <em>true</em> mówi filtrowi, aby nie zwracać uwagi na wielkość znaków. Słowniki można znaleźć m.in. pod adresem: <a href="http://wiki.services.openoffice.org/wiki/Dictionaries" target="_blank" rel="noopener noreferrer">http://wiki.services.openoffice.org/wiki/Dictionaries</a>.</p>
<h4>Morfologik</h4>
<p>Tak jak w wyżej wymienionych przypadkach, tak samo i tutaj, skorzystanie z Morfologika to dodanie filtra do definicji typu. Tym razem w następujący sposób:
</p>
<pre class="brush:xml">&lt;filter class="solr.MorfologikFilterFactory" dictionary="MORFOLOGIK" /&gt;</pre>
<p>Parametr <em>dictionary</em> to definicja z którego słownika chcemy skorzystać, do wyboru mamy:</p>
<ul>
<li>MORFOLOGIK</li>
<li>MORFEUSZ</li>
<li>COMBINED</li>
</ul>
<p>Oprócz tego, do <em>SOLR_HOME/lib</em> należy dodać bibliotekę <em>lucene-analyzers-morfologik-4.0.jar, </em><em>apache-solr-analysis-extras-4.0.jar, morfologik-fsa-1.5.2.jar</em>, <em>morfologik-polish-1.5.2.jar</em> oraz <em>morfologik-stemming-1.5.2.jar</em>.</p>
<h3>Porównanie działania</h3>
<p>Oczywiście nie byłem w stanie ocenić działania dla całego korpusu słów języka polskiego, dlatego wybrałem sobie cztery słowa, aby sprawdzić, jak zachowuje się każdy z wymienionych wyżej filtrów. Słowa te to: &#8222;<em>urodzić urodzony urodzona urodzeni&#8221;.</em> Wyniki przedstawiają się następująco:</p>
<h4>Stempel</h4>
<p>Wynikiem działania Stempla były następujące tokeny:
</p>
<pre>[urodzić] [urodzo] [urodzona] [urodzeni]</pre>
<p>Należy jednak pamiętać, iż Stempel to stemmer, a więc wyniki jego działania mogą i będą odbiegać od form podstawowych, czy też tematów słów. Ważne jest to, aby interesujące nas słowa sprowadzane były do tej samej formy, co umożliwi znalezienie odpowiedniego słowa przez Lucene/Solr. Pamiętając jednak o tym, widać iż wyniki nie są zadowalające, przynajmniej dla mnie. Na przykład zadając zapytanie <em>urodzić</em>, nie znaleźlibyśmy dokumentów ze słowami <em>urodzona</em>, czy <em>urodzony</em>. Dodatkowo widać, iż Stempel wyprodukował po jednym tokenie dla każdego ze słów.</p>
<h4>Hunspell</h4>
<p>Wynikiem działania Hunspell&#8217;a były następujące tokeny:
</p>
<pre>[urodzić, urodzić] [urodzony, urodzić] [urodzić] [urodzić, urodzony, urodzenie]</pre>
<p>Porównując wyniki uzyskane z pomocą Hunspell&#8217;a do tych uzyskanych z pomocą Stempla widać różnicę. Nasze przykładowe zapytanie o słowo <em>urodzić</em>, znalazłoby zarówno dokumenty ze słowem <em>urodzony</em>, jak również ze słowem <em>urodzona</em>, czy <em>urodzeni</em>. Całkiem miło. Dodatkowo widać, iż na trzy z czterech słów wejściowych Hunspell wygenerował więcej, niż jeden token (oczywiście umieszczając je na odpowiednich pozycjach w strumieniu tokenów). Wynik działania Hunspell&#8217;a mnie satysfakcjonuje, natomiast spójrzmy jeszcze na działanie najnowszego filtra dostępnego w Lucene i Solr pozwalającego na analizę języka polskiego, czyli na Morfologika.</p>
<h4>Morfologik</h4>
<p>Wynikiem działania Morfologika były następujące tokeny:
</p>
<pre>[urodzić] [urodzony, urodzić] [urodzić] [urodzić, urodzony]</pre>
<p>Porównując wyniki uzyskane za pomocą Morfologika do tych uzyskanych za pomocą Hunspell&#8217;a ciężko zauważyć różnicę (oczywiście w tym wypadku). Jedyną różnicą pomiędzy Hunspell&#8217;em, a Morfologikiem jest ostatni term dla słowa <em>urodzeni</em>, czyli <em>urodzenie</em>, którego nie otrzymaliśmy w wyniku działania Morfologika. Moim zdaniem wynik działania Morfologika, podobnie jak w przypadku Hunspell&#8217;a można uznać za satysfakcjonujący.</p>
<h3>Wydajność</h3>
<p>Test wydajności został zrobiony bardzo prosto &#8211; każdorazowo zostało zaindeksowanych 5 milionów dokumentów, gdzie wszystkie pola tekstowe były oparte o analizę języka polskiego z odpowiednim filtrem (do tego kilka standardowych filtrów, jak usuwanie stopwordów, synonimy, itp). Za każdym razem indeksowanie rozpoczynane było od nowa na nowej instancji Solr 4.0. Ze względu na korzystanie z Data Import Handlera polecenie commit wysyłane było co 100.000 dokumentów. Indeks składał się z kilkunastu pól, jednak sama struktura nie jest ważna ze względu na to, że zamierzałem zobaczyć, jak wygląda porównanie poszczególnych filtrów. Poniżej wyniki testu:</p>
[table “20” not found /]<br />

<p><strong>Uwaga<em>:</em></strong> W chwili pisania niniejszego tekstu, zgodnie ze zgłoszeniem <a href="https://issues.apache.org/jira/browse/SOLR-3245">SOLR-3245</a> istnieje problem z wydajnością Hunspella z polskimi słownikami w Solr 4.0. Najprawdopodobniej, sytuacja ta zostanie rozwiązana do czasu wypuszczenia wersji 4.0 Solr, jednak jeżeli zastanawiacie się nad korzystaniem z Solr 4.0 i Hunspell&#8217;a z polskimi słownikami wydajność takiego tandemu może być niezadowalająca.</p>
<p>Niestety ze względu na problemy wydajnościowe z Hunspell&#8217;em nie byliśmy w stanie porównać wydajności trzech dostępnych filtrów umożliwiających analizę języka polskiego. Natomiast z powyższej tabeli wnioskować można, iż w większości przypadków zarówno Stempel, jak i Morfologik będą charakteryzowały się podobną wydajnością.</p>
<h3>Krótkie podsumowanie</h3>
<p>Pomimo braku wyników wydajnościowych dotyczących Hunspell&#8217;a (bo te które są uważam za błędne i jestem pewien, że zostaną poprawione), widać iż Hunspell i Morfologik są dobrymi kandydatami do wykorzystania jeżeli chodzi o filtr umożliwiający analizę języka polskiego. W przypadku Morfologika, mamy wydajność podobną do Stempla, a w testach wychodzi na to, że Morfologik daje sobie radę z większą ilością polskich słów, co wpłynie pozytywnie na odczucia użytkowników.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://solr.pl/2012/04/02/solr-4-0-i-mozliwosci-analizy-jezyka-polskiego/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>Co to jest schema ?</title>
		<link>https://solr.pl/2010/08/16/co-to-jest-schema/</link>
					<comments>https://solr.pl/2010/08/16/co-to-jest-schema/#respond</comments>
		
		<dc:creator><![CDATA[Rafał Kuć]]></dc:creator>
		<pubDate>Mon, 16 Aug 2010 14:07:45 +0000</pubDate>
				<category><![CDATA[Solr]]></category>
		<category><![CDATA[analiza]]></category>
		<category><![CDATA[filtr]]></category>
		<category><![CDATA[indeks]]></category>
		<category><![CDATA[index]]></category>
		<category><![CDATA[pole]]></category>
		<category><![CDATA[schema]]></category>
		<category><![CDATA[schema.xml]]></category>
		<category><![CDATA[solr]]></category>
		<category><![CDATA[tokenizer]]></category>
		<category><![CDATA[typ]]></category>
		<category><![CDATA[typ pola]]></category>
		<category><![CDATA[type]]></category>
		<guid isPermaLink="false">http://sematext.solr.pl/?p=24</guid>

					<description><![CDATA[Jednym z plików konfiguracyjnych opisujących każde wdrożenie Solr jest plik schema.xml. Opisuje on jedną z najważniejszych rzeczy dotyczącą wdrożenia &#8211; strukturę indeksu. Informacje zawarte w tym pliku pozwalają kontrolować, jak zachowuje się Solr podczas indeksowania danych, czy też zadawania zapytań]]></description>
										<content:encoded><![CDATA[<p>Jednym z plików konfiguracyjnych opisujących każde wdrożenie Solr jest plik <em>schema.xml</em>. Opisuje on jedną z najważniejszych rzeczy dotyczącą wdrożenia &#8211; strukturę indeksu. Informacje zawarte w tym pliku pozwalają kontrolować, jak zachowuje się Solr podczas indeksowania danych, czy też zadawania zapytań do odpowiednich pól. <em>Schema.xml</em> to jednak nie tylko sama struktura indeksu, to także szczegółowe informacje o typach danych, które mają duży wpływ na zachowanie Solr, a z reguły są traktowane po macoszemu. Tym wpisem postaram się przybliżyć składowe pliku <em>schema.xml</em>.</p>
<p><span id="more-24"></span></p>
<p>Plik <em>schema.xml</em> składa się z kilku części:</p>
<ul>
<li> wersji,</li>
<li>definicji typów,</li>
<li>definicji pól,</li>
<li>sekcji <em>copyField</em>,</li>
<li>dodatkowych definicji.</li>
</ul>
<h3>Wersja</h3>
<p>Pierwszą rzeczą na jaką natrafimy w pliku schema.xml jest wersja. Jest to informacja o tym jak Solr ma traktować niektóre z atrybutów w pliku schema.xml. Definicja ta wygląda następująco:
</p>
<pre class="brush:xml">&lt;schema name="example" version="1.3"&gt;</pre>
<p>Należy pamiętać, iż nie jest to definicja wersji z punktu widzenia naszego projektu. W tym momencie Solr obsługuje 4 wersje pliku <em>schema.xml</em>:</p>
<ul>
<li>1.0 &#8211; nie istniał atrybut <em>multiValued</em>, wszystkie pola były domyślnie wielowartościowe.</li>
<li>1.1 &#8211; wprowadzono atrybut <em>multiValued</em>, domyślna wartość atrybutu to <em>false</em>.</li>
<li>1.2 &#8211; wprowadzono atrybut <em>omitTermFreqAndPositions</em>, domyślna wartość to <em>true </em>dla wszystkich pól, oprócz pól tekstowych.</li>
<li>1.3 &#8211; usunięto opcjonalną możliwość kompresji pól.</li>
</ul>
<h3>Definicje typów</h3>
<p>Definicje typów można logicznie podzielić na dwie oddzielne sekcje &#8211; typy proste i typy złożone. Typy proste w przeciwieństwie do typów złożonych nie posiadają zdefiniowanych filtrów i tokenizera.</p>
<p><strong>Typy proste</strong></p>
<p>Kolejnymi definicjami, na jakie trafimy w pliku<em> schema.xml</em> są definicje typów z których składać się będzie nasz indeks. Każdy z typów opisany jest szeregiem atrybutów, które opisują zachowanie danego typu. Na początek kilka atrybutów, które opisują każdy typ:</p>
<ul>
<li><em>name </em>&#8211; nazwa typu, atrybut wymagany,</li>
<li><em>class </em>&#8211; klasa, która odpowiada za implementację typu. Warto pamiętać, że  klasy standardowo dostarczane z Solr będą miały nazwy z przedrostkiem  'solr&#8217;.</li>
</ul>
<p>Oprócz dwóch wymienionych powyżej, typy mogą mieć jeszcze następujące atrybuty opcjonalne:</p>
<ul>
<li><em>sortMissingLast</em> &#8211; atrybut określający, jak mają być traktowane wartości w polu opartym o ten typ podczas sortowania. W przypadku ustawienia na wartość <em>true </em>na końcu listy wyników zawsze będą dokumenty nie posiadające wartości w polach oparty o dany typ &#8211; bez względu na to, czy sortujemy rosnąco, czy malejąco. Domyślna wartość atrybutu to <em>false</em>. Atrybut może być stosowany, tylko w przypadku typów, które przez Lucene traktowane są jako string.</li>
<li><em>sortMissingFirst </em>&#8211; atrybut określający, jak mają być traktowane wartości  w polu opartym o ten typ podczas sortowania. W przypadku ustawienia na  wartość true na początku listy wyników zawsze będą dokumenty nie  posiadające wartości w polach oparty o dany typ &#8211; bez względu na to, czy  sortujemy rosnąco, czy malejąco. Domyślna wartość atrybutu to <em>false</em>.  Atrybut może być stosowany, tylko w przypadku typów, które przez Lucene  traktowane są jako string.</li>
<li><em>omitNorms </em>&#8211; atrybut określający, czy podczas analizy mają być wyliczane normalizacje.</li>
<li><em>omitTermFreqAndPositions </em>&#8211; atrybut określający, czy podczas analizy ma  być pomijane wyliczanie częstotliwości poszczególnych termów oraz ich  pozycji w dokumencie.</li>
<li><em>indexed </em>&#8211; atrybut określający, czy pola oparte o ten typ mają przechowywać oryginalne wartości.</li>
<li><em>positionIncrementGap </em>&#8211; co ile pozycji (a dokładniej pozycji tokenów w strumieniu tokenów) ma być wyliczane trafienie.</li>
</ul>
<p>Warto pamiętać, iż w przypadku domyślnego ustawienia atrybutów sortMissingLast i sortMissingFirst Lucene będzie stosować zachowanie polegające na umieszczeniu dokumentów z pustymi wartościami na początku w przypadku sortowania rosnącego, a na końcu listy wyników w przypadku sortowania malejącego.</p>
<p>Kolejną opcją typów prostych, jednak dotyczącą tylko nowych typów liczbowych (typy<em> Trie*Field</em>), jest następujący atrybut:</p>
<ul>
<li><em>precisionStep </em>&#8211; atrybut określający ilość bitów precyzji. Im większa ilość bitów, tym szybsze zapytania oparte o przedziały liczbowe. Wiąże się to jednak także ze wzrostem wielkości indeksu, jako, że indeksowanych jest więcej wartości. Ustawienie wartości atrybutu na 0 wyłącza funkcjonalność indeksowania na różnych precyzjach.</li>
</ul>
<p>Przykładem zdefiniowanego typu prostego może być na przykład:
</p>
<pre class="brush:xml">&lt;fieldType name="string" class="solr.StrField" sortMissingLast="true" omitNorms="true"/&gt;</pre>
<p><strong>Typy złożone</strong></p>
<p>Oprócz typów prostych, plik <em>schema.xml</em> może zawierać typy składające się z tokenizera oraz filtrów. Tokenizer odpowiada za podzielenie zawartości pola na tokeny, natomiast filtry odpowiadają za dalszą analizę. Na przykład typ, który odpowiada za przechowywanie tekstów w języku polskim, mogłoby składać się z tokenizera odpowiadającego za dzielenie słów na podstawie białych znaków oraz kropek i przecinków, a przykładowe filtry mogłyby odpowiadać za sprowadzanie powstałych tokenów do małych liter, dalsze dzielenie tokenów (np. na podstawie myślników), a następnie sprowadzanie tokenów do formy podstawowej.</p>
<p>Typy złożone, tak jak typy proste, mają swoją nazwę (atrybut <em>name</em>) oraz klasę która odpowiada za implementację (atrybut <em>class</em>). Mogą się także charakteryzować innymi atrybutami opisanymi w przypadku typów prostych (na tych samych zasadach). Dodatkowo jednak typy złożone mogą posiadać definicję tokenizera oraz filtrów, które mają być wykorzystane na etapie indeksowania, jak i na etapie zadawania zapytań. Jak zapewne większość wie, dla danego etapu (indeksowanie, bądź zadawanie zapytań) może być zdefiniowany szereg filtrów oraz tylko i wyłącznie jeden tokenizer. Przykładowo, tak wygląda definicja typu tekstowego w przykładowej instalacji dostarczanej razem z Solr:
</p>
<pre class="brush:xml">&lt;fieldType name="text" class="solr.TextField" positionIncrementGap="100" autoGeneratePhraseQueries="true"&gt;
   &lt;analyzer type="index"&gt;
      &lt;tokenizer class="solr.WhitespaceTokenizerFactory"/&gt;
      &lt;filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true" /&gt;
      &lt;filter class="solr.WordDelimiterFilterFactory" generateWordParts="1" generateNumberParts="1" catenateWords="1" catenateNumbers="1" catenateAll="0" splitOnCaseChange="1"/&gt;
      &lt;filter class="solr.LowerCaseFilterFactory"/&gt;
      &lt;filter class="solr.KeywordMarkerFilterFactory" protected="protwords.txt"/&gt;
      &lt;filter class="solr.PorterStemFilterFactory"/&gt;
   &lt;/analyzer&gt;
   &lt;analyzer type="query"&gt;
      &lt;tokenizer class="solr.WhitespaceTokenizerFactory"/&gt;
      &lt;filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true"/&gt;
      &lt;filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true" /&gt;
      &lt;filter class="solr.WordDelimiterFilterFactory" generateWordParts="1" generateNumberParts="1" catenateWords="0" catenateNumbers="0" catenateAll="0" splitOnCaseChange="1"/&gt;
      &lt;filter class="solr.LowerCaseFilterFactory"/&gt;
      &lt;filter class="solr.KeywordMarkerFilterFactory" protected="protwords.txt"/&gt;
      &lt;filter class="solr.PorterStemFilterFactory"/&gt;
   &lt;/analyzer&gt;
&lt;/fieldType&gt;</pre>
<p>Warto zauważyć dodatkowy atrybut dla pola tekstowego:</p>
<ul>
<li><em>autoGeneratePhraseQueries</em></li>
</ul>
<p>Atrybut odpowiada za to, jak zachowują się filtry przy rozdzielaniu tokenów. Niektóre z filtrów (taki, jak np. <em>WordDelimiterFilter</em>) pozwala na dzielenie słów np. za pomocą znaku myślnika. Ustawienie atrybutu na wartość true (wartość domyślna) powoduje automatyczne generowanie zapytań o frazę, czyli tzw. <em>PhraseQueries</em>. Oznacza to, że np. dla słowa &#8222;wi-fi&#8221;, które zostanie rozbite przez filtr WordDelimiterFilter na słowa &#8222;wi&#8221; oraz &#8222;fi&#8221; zostanie wygenerowane zapytanie <code>pole:"wi fi"</code>, a nie zapytanie <code>pole:wi OR pole:fi</code>. Należy jednak pamiętać, iż atrybut ten potrafi gubić się w przypadku pól, które mają zdefiniowany tokenizer dzielący słowa inaczej, niż po białych znakach.</p>
<p>Wracając do definicji typu. Jak widać, przykład który podałem ma dwie główne sekcje:
</p>
<pre class="brush:xml">&lt;analyzer type="index"&gt;</pre>
<p>oraz
</p>
<pre class="brush:xml">&lt;analyzer type="query"&gt;</pre>
<p>Pierwsza z sekcji odpowiada za definicję typu, która będzie użyta w przypadku indeksowania dokumentów, druga sekcja odpowiada za definicję typu używaną w przypadku zapytań do pól opartych o ten typ. Warto wiedzieć, że jeżeli chcemy korzystać z tej samej definicji dla indeksowania i zadawania zapytań, możemy zrezygnować z obu sekcji. Wtedy nasza definicja typu wyglądałaby na przykład następująco:
</p>
<pre class="brush:xml">&lt;fieldType name="text" class="solr.TextField" positionIncrementGap="100" autoGeneratePhraseQueries="true"&gt;
   &lt;tokenizer class="solr.WhitespaceTokenizerFactory"/&gt;
   &lt;filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true" /&gt;
   &lt;filter class="solr.WordDelimiterFilterFactory" generateWordParts="1" generateNumberParts="1" catenateWords="1" catenateNumbers="1" catenateAll="0" splitOnCaseChange="1"/&gt;
   &lt;filter class="solr.LowerCaseFilterFactory"/&gt;
   &lt;filter class="solr.KeywordMarkerFilterFactory" protected="protwords.txt"/&gt;
   &lt;filter class="solr.PorterStemFilterFactory"/&gt;
&lt;/fieldType&gt;</pre>
<p>Jak już wspomniałem w definicji każdego typu złożonego występuje jeden tokenizer oraz szereg filtrów (choć nie koniecznie). Nie będę opisywał poszczególnych opcji każdego z filtrów oraz tokenizerów dostępnych standardowo z Solr. Informacje te dostępne są pod następującym adresem: <a href="http://wiki.apache.org/solr/AnalyzersTokenizersTokenFilters" target="_blank" rel="noopener noreferrer">http://wiki.apache.org/solr/AnalyzersTokenizersTokenFilters</a>.</p>
<p>Na koniec chciałem dodać ważną rzecz. Począwszy od Solr 1.4 tokenizer nie musi być pierwszym mechanizmem jaki zajmuje się analizą danego pola &#8211; zostały wprowadzone nowe filtry tzw. Char Filters, które operują na nietokenizowanym jeszcze polu i dopiero później przekazują wynik do tokenizera. Warto o tym wiedzieć, ponieważ może się to kiedyś przydać.</p>
<p><strong>Typy wielowymiarowe</strong></p>
<p>Na koniec zostawiłem sobie mały dodatek &#8211; opis nowości w Solr 1.4 &#8211; pól wielowymiarowych, czyli pól składających się z szeregu innych pól. Ogólnie można powiedzieć, iż założenie tego typu pól było proste &#8211; umożliwić przechowywanie w Solr par, trójek, czy większej ilości powiązanych ze sobą danych, takich jak na przykład współrzędne geograficzne punktu. W praktyce realizowane jest to za pomocą pól dynamicznych, jednak pozwolę sobie nie wgłębiać się w szczegóły implementacji. Przykładowa definicja typu, składającego się z dwóch pól:
</p>
<pre class="brush:xml">&lt;fieldType name="location" class="solr.PointType" dimension="2" subFieldSuffix="_d"/&gt;</pre>
<p>Oprócz standardowych atrybutów <em>name </em>oraz <em>class </em>pojawiają się dwa nowe:</p>
<ul>
<li><em>dimension </em>&#8211; ilość wymiarów (atrybut wykorzystywany przez klasę <em>solr.PointType)</em>.</li>
<li><em>subFieldSuffix </em>&#8211; przyrostek, jaki będzie dodawany do pól dynamicznych  wchodzących w skład pola. Ważne aby pamiętać, iż tak zdefiniowane pole  stworzy trzy pola w indeksie &#8211; pole oparte o typ <em>location </em>oraz dwa pola dynamiczne<em></em><em></em>.</li>
</ul>
<h3>Definicje pól</h3>
<p>Definicje pól to kolejna sekcja w pliku <em>schema.xml</em>, to sekcja, która teoretycznie powinna interesować nas najbardziej podczas projektowania indeksu Solr. Z reguły znajdziemy tutaj dwa rodzaje definicji pól:</p>
<ol>
<li>Pola statyczne</li>
<li>Pola dynamiczne</li>
</ol>
<p>Pola te są różnie traktowane przez Solr. Pierwszy typ pól, to pola, które dostępne są pod jedną nazwą. Pola dynamiczne, jako nazwę mają proste wyrażenie regularne (nazwa zaczynająca się lub kończąca się znakiem '*&#8217;). Należy pamiętać, iż Solr najpierw wybiera pole statyczne, a dopiero później pola dynamiczne. Dodatkowo w przypadku nazwy pola, która pasuje do więcej, niż jednej definicji, wybrane zostanie pole z dłuższą definicją nazwy.</p>
<p>Wracając do definicji pól (zarówno statycznych, jak i dynamicznych), składają się one z następujących atrybutów:</p>
<ul>
<li><em>name </em>&#8211; nazwa pola (atrybut wymagany).</li>
<li><em>type </em>&#8211; typ pola, czyli jeden z typów zdefiniowanych wcześniej (atrybut wymagany).</li>
<li><em>indexed </em>&#8211; czy pole ma być indeksowane (ustawiamy na wartość <em>true</em>, jeżeli chcemy wyszukiwać lub sortować po tym polu).</li>
<li><em>stored </em>&#8211; czy mają być przechowywane oryginalne wartości (ustawiamy na  wartość <em>true</em>, jeżeli chcemy pobierać oryginalną wartość przekazaną do  tego pola).</li>
<li><em>omitNorms </em>&#8211; czy ma być pomijane wyliczanie norm dla tego pola (ustawiamy  na wartość <em>true </em>dla pól, dla których będziemy stosować wyszukiwanie pełnotekstowe).</li>
<li><em>termVectors </em>&#8211; ustawiamy na wartość true w przypadku kiedy chcemy  przechowywać tzw. wektor termów. Domyślna wartość parametru, to wartość <em> false</em>. Niektóre funkcjonalności wymagają ustawienia tego parametru na <em> true </em>(np. <em>MoreLikeThis</em>, czy <em>FastVectorHighlighting</em>).</li>
<li><em>termPositions </em>&#8211; ustawiamy na wartość <em>true</em>, jeżeli chcemy aby wraz z  wektorem przechowywane były pozycje termów. Ustawienie na wartość <em>true </em>spowoduje wzrost wielkości indeksu.</li>
<li><em>termOffsets </em>&#8211; ustawiamy na wartość <em>true</em>, jeżeli chcemy aby wraz z  wektorem termów przechowywane były przesunięcia. Ustawienie na wartość <em> true </em>spowoduje wzrost wielkości indeksu.</li>
<li><em>default </em>&#8211; domyślna wartość jaka ma zostać nadana polu, jeżeli w dokumencie nie było podanej żadnej wartości.</li>
</ul>
<p>Poniżej przykładowe definicje pól:
</p>
<pre class="brush:xml">&lt;field name="id" type="string" indexed="true" stored="true" required="true" /&gt;
&lt;field name="includes" type="text" indexed="true" stored="true" termVectors="true" termPositions="true" termOffsets="true" /&gt;
&lt;field name="timestamp" type="date" indexed="true" stored="true" default="NOW" multiValued="false"/&gt;
&lt;dynamicField name="*_i" type="int" indexed="true" stored="true"/&gt;</pre>
<p>Na koniec jeszcze dodatkowa informacja o której warto pamiętać. Oprócz atrybutów wymienionych powyżej przy definicji pola możemy nadpisywać atrybuty jakie zostały zdefiniowane dla typu (np. czy pole ma być wielowartościowe &#8211; z powyższego przykładu pole o nazwie timestamp). Czasami taka funkcjonalność może się przydać, jeżeli potrzebujemy specyficznego pola, którego typ różni się nieznacznie od innego typu (tak jak w przykładzie &#8211; tylko atrybutem multiValued). Oczywiście należy pamiętać o ograniczeniach nakładanych na poszczególne atrybuty związane z typami.</p>
<h3>Sekcja copyField</h3>
<p>W skrócie sekcja odpowiadająca za kopiowanie zawartości pól do innych pól. Definiujemy z jakiego pola ma być skopiowana zawartość oraz do jakiego pola. Należy pamiętać, iż kopiowana jest zawartość przed analizą, czy wartość jaka przychodzi w danych. Przykład definicji copyField:
</p>
<pre class="brush:xml">&lt;copyField source="category" dest="text"/&gt;</pre>
<p>W gwoli ścisłości, występujące atrybuty oznaczają:</p>
<ul>
<li><em>source </em>&#8211; pole źródłowe,</li>
<li><em>dest </em>&#8211; pole docelowe.</li>
</ul>
<h3>Dodatkowe definicje</h3>
<p><strong>1. Zdefiniowanie unikalnego klucza</strong></p>
<p>Definicja unikalnego klucza, dzięki któremu możliwe będzie jednoznaczne zidentyfikowanie dokumentu. Zdefiniowanie unikalnego klucza nie jest konieczne, ale jest zalecane. Przykładowa definicja:
</p>
<pre class="brush:xml">&lt;uniqueKey&gt;id&lt;/uniqueKey&gt;</pre>
<p><strong>2. Zdefiniowanie domyślnego pola wyszukiwania</strong></p>
<p>Sekcja odpowiadająca za zdefiniowanie domyślnego pola, w którym Solr ma wyszukiwać w przypadku kiedy nie zostało podane żadne pole. Przykładowa definicja:
</p>
<pre class="brush:xml">&lt;defaultSearchField&gt;content&lt;/defaultSearchField&gt;</pre>
<p><strong>3. Zdefiniowanie domyślnego operatora logicznego</strong></p>
<p>Sekcja odpowiadająca za definicje domyślnego operatora logicznego, który będzie używany, jeżeli nie zostanie podany żaden operator logiczny. Przykładowa definicja wygląda w następujący sposób:
</p>
<pre class="brush:xml">&lt;solrQueryParser defaultOperator="OR"/&gt;</pre>
<p>Możliwe wartości to: <em>OR </em>oraz <em>AND</em>.</p>
<p><strong>4. Zdefiniowanie podobieństwa</strong></p>
<p>Na koniec zostaje nam zdefiniowanie podobieństwa, jakie będziemy wykorzystywać. Jest to raczej temat na inny wpis, należy jednak wiedzieć, iż w razie konieczności mamy możliwość zmiany domyślnego podobieństwa (aktualnie w trunku Solr są już dwie klasy obsługujące podobieństwo). Przykładowa definicja wygląda następująco:
</p>
<pre class="brush:xml">&lt;similarity class="pl.solr.similarity.CustomSimilarity" /&gt;</pre>
<h3>Kilka słów na koniec</h3>
<p>Powyżej przedstawione informacje powinny dać pewien wgląd na temat jakim jest plik <em>schema.xml</em> oraz za co odpowiadają poszczególne sekcje w tym pliku. W niedługim czasie postaram się napisać, czego wystrzegać się podczas projektowania indeksu.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://solr.pl/2010/08/16/co-to-jest-schema/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
