Nadszedł czas, abyśmy dodali do naszej aplikacji sprzedaży samochodów kolejną ważną funkcjonalność. Będzie to mechanizm sprawdzania poprawności wpisanej frazy wyszukiwania oraz podpowiadania frazy poprawnej. Funkcjonalność ta stała się już standardem we wszystkich silnikach wyszukiwania, zatem i my zrobimy z niej użytek.
Solr
Solr filtry: PatternReplaceCharFilter
Kontynuując przeglad filtrów dostępnych w Solr dziś przyglądamy się pracy PatternReplaceCharFilter.
Jak łatwo się domyślić zadaniem filtra jest zamiana w strumieniu wejściowym tych fragmentów, które pasują do danego wyrażenia regularnego.
Solr filtry: KeepWordFilter
Tym razem postanowiłem się przyjrzeć nietypowym filtrom dostępnym w standardowej dystrybucji Solr. Jako pierwszy w moje ręce trafił filtr o nazwie KeepWordFilter.
Solr 3.1 Cookbook
W związku ze zbliżającą się datą premiery chcielibyśmy zaprezentować nową pozycję dotyczącą Solr, która niedługo (planowana data wydania czerwiec 2011) ukaże się na rynku – „Solr 3.1 Cookbook„. Z tym większą przyjemnością prezentujemy książkę ze względu na to, że została napisana przez jednego z nas 😉
Solr 3.1: JSON Update Handler
W związku z pojawieniem się Solr 3.1 postanowiłem przyjrzeć się funkcjonalności rozszerzającej listę formatów za pomocą których możemy uaktualniać indeksy. Do tej pory mieliśmy do wyboru trzy rodzaje formatów za pomocą których mogliśmy dostarczać dane – XML, CSV oraz tzw. JavaBin. Wraz z pojawieniem się Solr 3.1 wprowadzono czwarty format – JSON.
Aplikacja „sprzedaż samochodów” – Unicode Collation, czyli sortowanie wyników wyszukiwania uwzględniając język danych (cz. 4)
W trzeciej części cyklu dodaliśmy dane lokalizacyjne oraz informacje o miejscowości, z którego pochodzi auto. Wkrótce potem dodaliśmy również możliwość sortowania po miejscowości, w prosty sposób modyfikując schemę:
<field name="city_sort" type="lowercase" indexed="true" stored="false" /> ... <copyField source="city" dest="city_sort"/>
Okazało się jednak, że sortowanie po miejscowości (pole city_sort) nie funkcjonuje tak jak powinno, a wszystko ze względu na występowanie w nazwach miast polskich znaków. Co z tym zrobić ?
Read more
Indeksowanie plików doc, pdf itp, czyli integracja Solr z Tika
W poprzednim artykule podaliśmy podstawowe informację, jak umożliwić przeszukiwanie zawartości plików binarnych, czyli m.in dokumentów MS Word, PDF czy LibreOffice. Dziś zrobimy to samo, wykorzystując Data Import Handler. Ponieważ parę dni temu pojawiła się nowa wersja serwera SOLR (3.1), poniższe wskazówki bazują na tej wersji. Do prezentacji wykorzystano aplikację „example” – wszystkie poniższe zmiany odnoszą się właśnie do tej aplikacji.
Lucene i Solr 3.1
Kilka minut temu zostały opublikowana najnowsza wersja biblioteki Lucene oraz opartego na niej silnika wyszukiwania Solr, oznaczone numerem 3.1. Zmian jest sporo, pozwolę sobie zatem na przytoczenie niektórych z nich (opierając się na wiadomości wysłanej przez Granta Ingersoll):
Solr 1.4: LocalParams
Kilkanaście miesięcy temu podczas jednego z projektów starałem się optymalnie skonstruować zapytania z facetingiem. Problem polegał na tym, że faceting miał był nieograniczany, a samo zapytanie nakładało konieczność ograniczenia filtrem (fq). Niestety wtedy nie było to możliwe bez dodatkowej implementacji i zmian w mechanizmie facetingu. Teraz już jest, właśnie dzięki tzw. LocalParams.
Integracja Solr z Tika (cz. 1 – podstawy)
Indeksowanie tzw, „rich documents”, czyli plików w formacie pdf, doc, rtf i tak dalej (lub też plików binarnych) zawsze wymagało pewnej pracy po stronie dewelopera w celu wyciągnięcia interesujących go treści, a następnie przygotowanie ich w formacie zrozumiałym dla wyszukiwarki, w tym wypadku dla Solr. Aby zminimalizować tą pracę postanowiłem przyjrzeć się Apache Tika i integracji tej biblioteki z Solr.