<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>shard &#8211; Solr.pl</title>
	<atom:link href="https://solr.pl/tag/shard/feed/" rel="self" type="application/rss+xml" />
	<link>https://solr.pl</link>
	<description>All things to be found - Blog related to Apache Solr &#38; Lucene projects - https://solr.apache.org</description>
	<lastBuildDate>Sat, 14 Nov 2020 11:48:21 +0000</lastBuildDate>
	<language>pl-PL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9</generator>
	<item>
		<title>SolrCloud i kontrola wykonywania zapytań</title>
		<link>https://solr.pl/2019/01/14/solrcloud-i-kontrola-wykonywania-zapytan/</link>
					<comments>https://solr.pl/2019/01/14/solrcloud-i-kontrola-wykonywania-zapytan/#respond</comments>
		
		<dc:creator><![CDATA[Rafał Kuć]]></dc:creator>
		<pubDate>Mon, 14 Jan 2019 11:47:47 +0000</pubDate>
				<category><![CDATA[Solr]]></category>
		<category><![CDATA[preference]]></category>
		<category><![CDATA[querying]]></category>
		<category><![CDATA[replica]]></category>
		<category><![CDATA[shard]]></category>
		<category><![CDATA[shards]]></category>
		<category><![CDATA[solr]]></category>
		<category><![CDATA[solrcloud]]></category>
		<guid isPermaLink="false">http://sematext.solr.pl/?p=772</guid>

					<description><![CDATA[Wraz z Solr 7.0 i wprowadzeniem nowych typów replik, oprócz standardowego typu NRT, pojawiło się naturalne pytanie &#8211; czy możemy kontrolować wykonywanie zapytań? Czy możemy powiedzieć Solr, że chcielibyśmy, aby zapytania były wykonywane na replikach typu PULL lub te repliki]]></description>
										<content:encoded><![CDATA[
<p>Wraz z Solr 7.0 i wprowadzeniem nowych typów replik, oprócz standardowego typu NRT, pojawiło się naturalne pytanie &#8211; czy możemy kontrolować wykonywanie zapytań? Czy możemy powiedzieć Solr, że chcielibyśmy, aby zapytania były wykonywane na replikach typu PULL lub te repliki były priorytetowe. Przyjrzyjmy się zatem możliwościom. </p>



<span id="more-772"></span>



<h2 class="wp-block-heading">Parametr shards</h2>



<p>Jedną z pierwszych możliwości kontroli zapytań jeżeli chodzi o SolrCloud jest parametr <em>shards</em>. Pozwala on na dokładne określenie, które z shardów mają uczestniczyć w wykonywaniu zapytania. Jako wartości parametru możemy przekazywać zarówno nazwy logiczne, jak również nazwy replik, np:</p>



<pre class="wp-block-code"><code class="">http://localhost:8983/solr/test/select?q=*:*&amp;shards=shard1</code></pre>



<pre class="wp-block-code"><code class="">http://localhost:8983/solr/test/select?q=*:*&amp;shards=shard1,shard2,shard3</code></pre>



<pre class="wp-block-code"><code class="">http://localhost:8983/solr/test/select?q=*:*&amp;shards=localhost:6683/solr/test</code></pre>



<p>Pierwsze z powyższych zapytań zostanie przekazane do shardów zgrupowanych pod logiczną nazwą <em>shard1</em>, drugie z zapytań zostanie wykonane na shardach z logicznymi nazwami <em>shard1</em>, <em>shard2</em> oraz <em>shard3</em>. Ostatnie zapytanie zostanie natomiast wykonane na replikach znajdujących się na instancji Solr o adresie <em>localhost:6683</em> na kolekcji <em>test</em>.</p>



<p>Istnieje takie możliwość wskazania alternatywy, tak aby możliwy był load balancing pomiędzy instancjami, np:</p>



<pre class="wp-block-code"><code class="">http://localhost:8983/solr/test/select?q=*:*&amp;shards=localhost:6683/solr/test|localhost:7783/solr/test</code></pre>



<p>Powyższe zapytanie zostanie wykonane na instancji działającej na porcie <em>6683</em> lub na instancji działającej na porcie <em>7783</em>. </p>



<h2 class="wp-block-heading">Parametr shards.preference</h2>



<p>Parametr <em>shards</em> daje nam pewne możliwości kontroli, gdzie wykonane zostanie nasze zapytanie. Jednak, aby wykorzystać repliki danego rodzaju musielibyśmy sami pobierać informacje na temat ich lokalizacji, a następnie zadawać odpowiednie zapytanie. Parametr <em>shards.preference</em> wyręcza nas udostępniając możliwość zdefiniowania typu repliki jaki ma mieć priorytet podczas wykonywania zapytania lub/oraz lokalizacji repliki. </p>



<p>Na przykład, aby Solr preferował repliki typu PULL podczas wykonywania zapytania wystarczy, abyśmy dodali do naszego zapytania parametr <em>shards.preference</em> z wartością <em>replica.type:PULL</em>:</p>



<pre class="wp-block-code"><code class="">http://localhost:8983/solr/test/select?q=*:*&amp;shards.preference=replica.type:PULL</code></pre>



<p>Oczywiście możemy powiedzieć, aby Solr wykorzystywał najpierw repliki typu PULL, a następnie repliki typu TLOG jeżeli te pierwsze nie są dostępne. Nasze zapytanie wyglądałoby wtedy następująco:</p>



<pre class="wp-block-code"><code class="">http://localhost:8983/solr/test/select?q=*:*&amp;shards.preference=replica.type:PULL,replica.type:TLOG</code></pre>



<p>Możemy także powiedzieć, aby Solr najpierw preferował repliki typu PULL, a jak takich nie ma, to te dostępne lokalnie:</p>



<pre class="wp-block-code"><code class="">http://localhost:8983/solr/test/select?q=*:*&amp;shards.preference=replica.type:PULL,replica.location:local</code></pre>



<p>Wprowadziliśmy tutaj nową wartość parametru <em>shards.preference</em>, czyli <em>replica.location:local</em>. Określa on preferowaną lokalizację replik i w tym wypadku mówi, aby preferował te znajdujące się lokalnie.</p>



<p>Oczywiście nie jest to jedyna możliwość, jeżeli chodzi o lokalizację replik. Podobnie jak w przypadku parametru <em>shards</em> mamy możliwość wskazania danej instancji Solr, która ma być tą preferowaną. Na przykład, jeżeli chcemy, aby preferowaną maszyną był serwer o adresie <em>192.168.1.1</em> wystarczy zadać następujące zapytanie:</p>



<pre class="wp-block-code"><code class="">http://localhost:8983/solr/test/select?q=*:*&amp;shards.preference=replica.type:PULL,replica.location:http://192.168.1.1</code></pre>



<h2 class="wp-block-heading">Podsumowanie</h2>



<p>Omówione parametry, a szczególnie <em>shards.preference</em> ze swoją wartością <em>replica.type</em> może być szczególnie przydatny w tych przypadkach kiedy w SolrCloud korzystamy z różnego typu replik. Mówiąc Solr, iż do wyszukiwania preferujemy repliki typu PULL lub TLOG możemy zmniejszyć lub wyeliminować obciążenie zapytaniami replik typu NRT, a tym samym zbliżyć się do tego co oferuje Solr w architekturze master &#8211; slave &#8211; podział ról replik. Wszystko to dalej korzystając z SolrCloud i wszystkich udogodnień, które za tym idą. </p>
]]></content:encoded>
					
					<wfw:commentRss>https://solr.pl/2019/01/14/solrcloud-i-kontrola-wykonywania-zapytan/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Solr 4.3: Dzielenie shard&#8217;ów &#8211; szybkie spojrzenie</title>
		<link>https://solr.pl/2013/05/06/solr-4-3-dzielenie-shardow-szybkie-spojrzenie/</link>
					<comments>https://solr.pl/2013/05/06/solr-4-3-dzielenie-shardow-szybkie-spojrzenie/#respond</comments>
		
		<dc:creator><![CDATA[Rafał Kuć]]></dc:creator>
		<pubDate>Mon, 06 May 2013 10:10:17 +0000</pubDate>
				<category><![CDATA[Solr]]></category>
		<category><![CDATA[apache]]></category>
		<category><![CDATA[shard]]></category>
		<category><![CDATA[shard spliting]]></category>
		<category><![CDATA[solr]]></category>
		<category><![CDATA[split]]></category>
		<guid isPermaLink="false">http://sematext.solr.pl/?p=507</guid>

					<description><![CDATA[Wraz z wersją 4.3 serwera wyszukiwania Apache Solr dostaliśmy bardzo długo oczekiwaną funkcjonalność &#8211; możliwość dzielenia części kolekcji kiedy korzystamy z wdrożenia opartego o SolrCloud. W tym wpisie chcieliśmy wypróbować nową funkcjonalność i zobaczyć jak działa. Do dzieła więc. Kilka]]></description>
										<content:encoded><![CDATA[<p>Wraz z wersją 4.3 serwera wyszukiwania Apache Solr dostaliśmy bardzo długo oczekiwaną funkcjonalność &#8211; możliwość dzielenia części kolekcji kiedy korzystamy z wdrożenia opartego o SolrCloud. W tym wpisie chcieliśmy wypróbować nową funkcjonalność i zobaczyć jak działa. Do dzieła więc.</p>
<p><span id="more-507"></span></p>
<p><!--more--></p>
<h3>Kilka słów na początek</h3>
<p>Wybór odpowiedniej liczby części z jakich będzie składała się nasza kolekcja był do tej pory jedną z niewiadomych, których wartość musieliśmy znać przed wdrożeniem. Kiedy tylko stworzyliśmy kolekcję nie mogliśmy zmienić liczby shardów z jakich się składa, mogliśmy dodawać tylko nowe repliki. Oczywiście niosło to za sobą konsekwencje &#8211; jeżeli nasze zalożenia nie były prawidłowe mogło się okazać, iż liczba shardów jest niewystarczająca. Mogliśmy wtedy tylko zalożyć nową kolekcję z inną konfiguracją, a następnie przeindeksować dane. Aż do chwili, kiedy pojawił się Apache Solr 4.3, a wraz z nim możliwość dzielenia na części stworzonej już kolekcji.</p>
<h3>Mały klaster</h3>
<p>W celu przetestowania nowej funkcjonalności postanowiłem uruchomić klaster składający się z jednej instancji Solr oraz z wbudowanym ZooKeeperem oraz przykładową kolekcją dostarczaną wraz z Solr. W tym celu użyłem następującej komendy:
</p>
<pre class="brush:bash">java -Dbootstrap_confdir=./solr/collection1/conf -Dcollection.configName=collection1 -DzkRun -DnumShards=1 -DmaxShardsPerNode=2 -DreplicationFactor=1 -jar start.jar</pre>
<p>Po uruchomieniu Solr widok klastra przedstawiał się następująco:</p>
<p><a href="http://solr.pl/wp-content/uploads/2013/05/after_start1.png"><img decoding="async" class="aligncenter size-full wp-image-3080" alt="after_start" src="http://solr.pl/wp-content/uploads/2013/05/after_start1.png" width="524" height="27"></a></p>
<h3>Testowe dane</h3>
<p>Do testów potrzebne są także jakieś dane, postanowiłem więc skorzystać z przykładowych dostarczanych z Solr i uruchomić następujące polecenie w katalogu <em>exampledocs</em>:
</p>
<pre class="brush:bash">java -jar post.jar *.xml</pre>
<p>Liczbę zaindeksowanych dokumentów sprawdzić można wykonując następującą komendę:
</p>
<pre class="brush:bash">curl 'http://localhost:8983/solr/collection1/select?q=*:*&amp;rows=0'</pre>
<p>Na którą Solr odpowiedział następująco:
</p>
<pre class="brush:xml">&lt;?xml version="1.0" encoding="UTF-8"?&gt;
&lt;response&gt;
&lt;lst name="responseHeader"&gt;
&nbsp; &lt;int name="status"&gt;0&lt;/int&gt;
&nbsp; &lt;int name="QTime"&gt;5&lt;/int&gt;
&nbsp; &lt;lst name="params"&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="q"&gt;*:*&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="rows"&gt;0&lt;/str&gt;
&nbsp; &lt;/lst&gt;
&lt;/lst&gt;
&lt;result name="response" numFound="32" start="0"&gt;
&lt;/result&gt;
&lt;/response&gt;</pre>
<p>Jak widać zaindeksowanych zostało dokładnie 32 dokumenty.</p>
<h3>Podział shard&#8217;a</h3>
<p>Spróbujmy zatem podzielić nasz pojedynczy shard, z którego składa się nasza kolekcja. W tym celu wykorzystamy API kolekcji i nową akcję o nazwie SPLITSHARD, która w podstawowej wersji przymuje dwa parametery &#8211; <em>collection</em>, czyli nazwę kolekcji na której chcemy wykonać operację oraz <em>shard</em>, czyli nazwę shard&#8217;a którego chcemy podzielić. W naszym wypadku komenda, która podzieli kolekcję jest następująca:
</p>
<pre class="brush:bash">curl 'http://localhost:8983/solr/admin/collections?action=SPLITSHARD&amp;collection=collection1&amp;shard=shard1'</pre>
<p>Po chwili, jeżeli wszystko przebiegło poprawnie, powinniśmy dostać od Solr odpowiedź informującą o przebiegu operacji podziału, wyglądającą mniej więcej tak:
</p>
<pre class="brush:xml">&lt;?xml version="1.0" encoding="UTF-8"?&gt;
&lt;response&gt;
&lt;lst name="responseHeader"&gt;
&nbsp; &lt;int name="status"&gt;0&lt;/int&gt;
&nbsp; &lt;int name="QTime"&gt;9220&lt;/int&gt;
&lt;/lst&gt;
&lt;lst name="success"&gt;
&nbsp; &lt;lst&gt;
&nbsp;&nbsp;&nbsp; &lt;lst name="responseHeader"&gt;
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;int name="status"&gt;0&lt;/int&gt;
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;int name="QTime"&gt;6963&lt;/int&gt;
&nbsp;&nbsp;&nbsp; &lt;/lst&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="core"&gt;collection1_shard1_1_replica1&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="saved"&gt;/home/solr/4.3/solr/solr.xml&lt;/str&gt;
&nbsp; &lt;/lst&gt;
&nbsp; &lt;lst&gt;
&nbsp;&nbsp;&nbsp; &lt;lst name="responseHeader"&gt;
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;int name="status"&gt;0&lt;/int&gt;
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;int name="QTime"&gt;6977&lt;/int&gt;
&nbsp;&nbsp;&nbsp; &lt;/lst&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="core"&gt;collection1_shard1_0_replica1&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="saved"&gt;/home/solr/4.3/solr/solr.xml&lt;/str&gt;
&nbsp; &lt;/lst&gt;
&nbsp; &lt;lst&gt;
&nbsp;&nbsp;&nbsp; &lt;lst name="responseHeader"&gt;
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;int name="status"&gt;0&lt;/int&gt;
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;int name="QTime"&gt;9005&lt;/int&gt;
&nbsp;&nbsp;&nbsp; &lt;/lst&gt;
&nbsp; &lt;/lst&gt;
&nbsp; &lt;lst&gt;
&nbsp;&nbsp;&nbsp; &lt;lst name="responseHeader"&gt;
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;int name="status"&gt;0&lt;/int&gt;
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;int name="QTime"&gt;9006&lt;/int&gt;
&nbsp;&nbsp;&nbsp; &lt;/lst&gt;
&nbsp; &lt;/lst&gt;
&nbsp; &lt;lst&gt;
&nbsp;&nbsp;&nbsp; &lt;lst name="responseHeader"&gt;
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;int name="status"&gt;0&lt;/int&gt;
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;int name="QTime"&gt;103&lt;/int&gt;
&nbsp;&nbsp;&nbsp; &lt;/lst&gt;
&nbsp; &lt;/lst&gt;
&nbsp; &lt;lst&gt;
&nbsp;&nbsp;&nbsp; &lt;lst name="responseHeader"&gt;
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;int name="status"&gt;0&lt;/int&gt;
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;int name="QTime"&gt;1&lt;/int&gt;
&nbsp;&nbsp;&nbsp; &lt;/lst&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="core"&gt;collection1_shard1_1_replica1&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="status"&gt;EMPTY_BUFFER&lt;/str&gt;
&nbsp; &lt;/lst&gt;
&nbsp; &lt;lst&gt;
&nbsp;&nbsp;&nbsp; &lt;lst name="responseHeader"&gt;
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;int name="status"&gt;0&lt;/int&gt;
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;int name="QTime"&gt;1&lt;/int&gt;
&nbsp;&nbsp;&nbsp; &lt;/lst&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="core"&gt;collection1_shard1_0_replica1&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="status"&gt;EMPTY_BUFFER&lt;/str&gt;
&nbsp; &lt;/lst&gt;
&lt;/lst&gt;
&lt;/response&gt;</pre>
<h3>Wygląd klastra po podziale</h3>
<p>Po podziale nasz klaster wygląda następująco:</p>
<p><a href="http://solr.pl/wp-content/uploads/2013/05/after_split.png"><img decoding="async" class="aligncenter size-full wp-image-3082" alt="after_split" src="http://solr.pl/wp-content/uploads/2013/05/after_split.png" width="520" height="80"></a>Jak widać powstały dwa nowe shardy, które teoretycznie powinny zawierać dokumenty z shard1 &#8211; część z dokumentów powinny trafić do części oznaczonej <em>shard1_1</em>, a część do <em>shard1_0</em>. Ponownie korzystając z panelu administarcyjnego Solr możemy sprawdzić odpowiednie core&#8217;y:</p>
<h4>Shard1_1</h4>
<p>Statystki cześci kolekcji oznaczonej jako <em>Shard1_1</em> wyglądają następująco:</p>
<p><a href="http://solr.pl/wp-content/uploads/2013/05/shard_1_1.png"><img fetchpriority="high" decoding="async" class="aligncenter size-full wp-image-3083" alt="shard_1_1" src="http://solr.pl/wp-content/uploads/2013/05/shard_1_1.png" width="415" height="210"></a></p>
<p><strong>Shard1_0</strong></p>
<p>Natomiast statystki cześci kolekcji oznaczonej jako <em>Shard1_0</em> wyglądają następująco:</p>
<h3><a href="http://solr.pl/wp-content/uploads/2013/05/shard_1_0.png"><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-3084" alt="shard_1_0" src="http://solr.pl/wp-content/uploads/2013/05/shard_1_0.png" width="352" height="207"></a></h3>
<p>Jak widać z 32 dokumentów, które były dostępne w oryginalnej części kolekcji powstały dwie części kolekcji &#8211; jedna przechowująca 18 dokumentów,&nbsp; a druga przechowująca 14 dokumentów. Teoretycznie się zgadza <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p>
<h3>Porządki</h3>
<p>Na sam koniec zostawiłem sobie porządki. Po pierwsze, aby dane w nowych shardach były widoczne musimy wysłać polecenie commit do naszej kolekcji, np w następujący sposób:
</p>
<pre class="brush:bash">curl 'http://localhost:8983/solr/collection1/update' --data-binary '&lt;commit/&gt;' -H 'Content-type:application/xml'</pre>
<p>Możemy także usunąć oryginalny shard z kolekcji, korzystając np. z panelu administracyjnego Solr lub też używając CoreAPI.</p>
<h3>Ostatni test</h3>
<p>Jako podsumowanie postanowiłem sprawdzić, czy na pewno dokumenty są dostępne w odpowiednich częściach kolekcji. W tym celu skorzystałem z następującego polecenia:
</p>
<pre class="brush:bash">curl 'http://localhost:8983/solr/collection1/select?q=*:*&amp;rows=100&amp;fl=id,[shard]&amp;indent=true'</pre>
<p>Odpowiedź Solr na powyższe zapytanie była następująca:
</p>
<pre class="brush:xml">&lt;?xml version="1.0" encoding="UTF-8"?&gt;
&lt;response&gt;
&lt;lst name="responseHeader"&gt;
&nbsp; &lt;int name="status"&gt;0&lt;/int&gt;
&nbsp; &lt;int name="QTime"&gt;7&lt;/int&gt;
&nbsp; &lt;lst name="params"&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="fl"&gt;id,[shard]&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="q"&gt;*:*&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="rows"&gt;100&lt;/str&gt;
&nbsp; &lt;/lst&gt;
&lt;/lst&gt;
&lt;result name="response" numFound="32" start="0" maxScore="1.0"&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;GB18030TEST&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_0_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;IW-02&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_0_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;MA147LL/A&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_0_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;adata&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_0_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;asus&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_0_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;belkin&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_0_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;maxtor&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_0_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;TWINX2048-3200PRO&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_0_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;VS1GB400C3&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_0_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;VDBDB1A16&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_0_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;USD&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_0_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;GBP&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_0_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;3007WFP&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_0_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;EN7800GTX/2DHTV/256M&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_0_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;SP2514N&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;6H500F0&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;F8V7067-APL-KIT&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;apple&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;ati&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;canon&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;corsair&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;dell&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;samsung&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;viewsonic&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;EUR&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;NOK&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;VA902B&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;0579B002&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;9885A004&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;SOLR1000&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;UTF8TEST&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&nbsp; &lt;doc&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="id"&gt;100-435805&lt;/str&gt;
&nbsp;&nbsp;&nbsp; &lt;str name="[shard]"&gt;192.168.56.1:8983/solr/collection1_shard1_1_replica1/&lt;/str&gt;&lt;/doc&gt;
&lt;/result&gt;
&lt;/response&gt;</pre>
<p>Jak widać dokumenty pochodzą z obu nowych shardów, czyli znów widać, że wszystko się zgadza. Do samego tematu podziału kolekcji na pewno jeszcze wrócimy.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://solr.pl/2013/05/06/solr-4-3-dzielenie-shardow-szybkie-spojrzenie/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
