Knjižnice, napisane v Jupyter Notebooku
FinanceDatabase
To je zbirka podatkov s 300.000+ simboli, ki vsebujejo delnice, ETF-je, sklade, indekse, valute, kriptovalute in denarne trge.
- 2.0k
- MIT
awesome-notebooks
Predloge za podatke in AI, pripravljene za uporabo, organizirane z orodji za hiter začetek vaših projektov in podatkovnih izdelkov v nekaj minutah. 😎 objavila skupnost Naas..
- 2.0k
- BSD 3-clause "New" or "Revised"
TensorRT
Prevajalnik PyTorch/TorchScript/FX za grafične procesorje NVIDIA z uporabo TensorRT (s strani pytorch).
- 2.0k
- BSD 3-clause "New" or "Revised"
tensorflow-onnx
Pretvorite modele TensorFlow, Keras, Tensorflow.js in Tflite v ONNX.
- 2.0k
- Apache License 2.0
100-pandas-puzzles
100 podatkovnih ugank za pande, od kratkih in preprostih do zelo zapletenih (60 % dokončanih).
- 2.0k
- MIT
kubric
Cevovod za ustvarjanje podatkov za ustvarjanje pol-realističnih sintetičnih videoposnetkov z več predmeti z bogatimi opombami, kot so maske segmentacije primerkov, zemljevidi globine in optični tok.
- 2.0k
- Apache License 2.0
SimCLR
PyTorch implementacija SimCLR: preprost okvir za kontrastno učenje vizualnih predstavitev (avtor sthalles).
- 1.9k
- MIT
FinMind
Open Data, more than 50 financial data. 提供超過 50 個金融資料(台股為主),每天更新 https://finmind.github.io/.
- 1.9k
- Apache License 2.0
Alpaca-CoT
We unified the interfaces of instruction-tuning data (e.g., CoT data), multiple LLMs and parameter-efficient methods (e.g., lora, p-tuning) together for easy use. Meanwhile, we created a new branch to build a Tabular LLM.(我们分别统一了丰富的IFT数据(如CoT数据,目前仍不断扩充)、多种训练效率方法(如lora,p-tuning)以及多种LLMs,三个层面上的接口,打造方便研究人员上手的LLM-IFT研究平台。同时tabular_llm分支构建了面向表格智能任务的LLM。.
- 1.9k
- Apache License 2.0
SfMLearner
Nenadzorovan učni okvir za oceno globine in gibanja ega iz monokularnih videoposnetkov.
- 1.9k
- MIT
DeepLearningForNLPInPytorch
Vadnica IPython Notebook o poglobljenem učenju za obdelavo naravnega jezika, vključno s predvidevanjem strukture.
- 1.9k
- MIT
ecco
Razlaga, analizira in vizualizira jezikovne modele NLP. Ecco ustvarja interaktivne vizualizacije neposredno v zvezkih Jupyter, ki pojasnjujejo vedenje jezikovnih modelov, ki temeljijo na Transformerju (kot so GPT2, BERT, RoBERTA, T5 in T0).
- 1.8k
- BSD 3-clause "New" or "Revised"
chain-of-thought-hub
Primerjava zmožnosti kompleksnega razmišljanja velikih jezikovnih modelov s spodbujanjem v verigi misli.
- 1.7k
- MIT