<div dir="ltr">Hi all,<div><br></div><div>I have a large data file provided as comma separated values (unicode data) I need to load and parse it ASAP since it will be used by all the functions. </div><div><br></div><div>The current implementation consists in parsing the file and generate either a source file or an include file that will be then compiled. My issue with it for now is that the compilation will use more than 1GB and then crash on small machines or containers.</div><div><br></div><div>Other solutions I tried:</div><div><br></div><div>- use merl + `-onload` to build a module on first call of the module (too long the first time)</div><div>- store an ets file and load it later, which can be an issue if you need to create an escript will all modules later</div><div>- load an parse in a gen_server (same result as using merl)</div><div><br></div><div>Thinks I have in mind:</div><div><br></div><div>- generate a DETS file or small binary tree on disk and cache the content on demand</div><div>- generate a beam and ship it</div><div><br></div><div>Is there anything else I can do?  I am curious how others are doing in that case. </div><div><br></div><div>- benoît</div></div>