Tag: mlx

  • mlx-lmを試してみる

    Apple silicon用の推論ライブラリmlx-lmを試したみたのでその備忘録. (検索すればいくらでも出てくる内容) 準備 mlxとmlx-lmのインストール pip install mlx mlx-lm インストールされたバージョンは以下の通り Python 3.11.11 mlx 0.25.1 mlx_lm 0.24.0 コマンドラインからの実行 mlx_lm.generate –model mlx-community/Qwen3-8B-4bit \ –prompt “機械学習フレームワークのMLXについて教えて” \ –max-tokens 1024 Qwen3は思考テキストが長く,max-tokensが512だと出力されなかった. 以下は出力が長いので,速度だけ記しておく.なおM2 Ultraのmacstudio上で実行した. Prompt: 20 tokens, 130.271 tokens-per-sec Generation: 1024 tokens, 104.712 tokens-per-sec Peak memory: 4.898 GB /no_thinkをプロンプトに追加した場合は以下の通り. Prompt: 24 tokens, 147.129 tokens-per-sec Generation: 1024 tokens, 104.482 tokens-per-sec Peak…