<div dir="ltr">On 16 October 2016 at 00:15, Giovanni Maruzzelli <span dir="ltr">&lt;<a href="mailto:gmaruzz@gmail.com" target="_blank">gmaruzz@gmail.com</a>&gt;</span> wrote:<br><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><span class="">On 15 October 2016 at 20:58, Ehsan Minachi <span dir="ltr">&lt;<a href="mailto:ehsanminachi@gmail.com" target="_blank">ehsanminachi@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Thank you all for your responses.<div><br></div><div>We have a highly distributed environment. While Kubernetes manages 80+ micro services across our clusters, we are planning to have dedicated FreeSWITCH hardware. Currently on each server dedicated to FreeSWITCH we&#39;re running two instances with dedicated NIC cards.</div><div><br></div></div></blockquote></span></div></div></div></blockquote><div><br><br></div><div dir="ltr">Also, obviously, to be sure about quality, run one only instance of FS per actual hardware. And test on your expected actual load and actual call patterns/flows/concurrence/durations.<br><br></div><div>Eg, first test with one instance one hardware, if it works, you can try to cramp two instances together and see how it goes.<br></div><div dir="ltr"><br></div><div>-giovanni<br></div><div dir="ltr"><br></div></div>
</div></div>