Nothing Special   »   [go: up one dir, main page]

タグ

llmに関するstealthinuのブックマーク (312)

  • 「AIはゴルフできないし焼酎薄めとか濃いめで作れないでしょ!」専門商社の人が「AIに負ける要素一つとしてなし」と断言していた根拠が力強かった

    pho @ohp_pho 専門商社の人が「AIはゴルフできないし相手のキャディバッグも持てないでしょ!焼酎薄めとか濃いめで作れないし、カラオケでタンバリンしないでしょ!負ける要素は一つとしてないです」と断言していて力強かった 2025-03-03 17:22:03

    「AIはゴルフできないし焼酎薄めとか濃いめで作れないでしょ!」専門商社の人が「AIに負ける要素一つとしてなし」と断言していた根拠が力強かった
    stealthinu
    stealthinu 2025/03/04
    買う側もAIが判断するようになるんだから接待自体が意味なくなるよね、とまでは考えないのだろうか… これも正常性バイアスなのかね。
  • Clineに全部賭ける前に 〜Clineの動作原理を深掘り〜

    はじめに AIのコーディングアシスタントとして最近、急速に注目を集めているClineVSCode上でAIと連携し、コード生成からバグ修正、さらにはターミナル操作まで自動化できるこのツールは、多くのエンジニアの生産性を劇的に向上させています。 mizchiさんの『CLINEに全部賭けろ』という記事では、 AIから引き出せる性能は、自分の能力にそのまま比例する AI自体を管理するパイプライン設計を自分のコアスキルにする必要がある ともあるように、エンジニアはClineという強力なツールの最大限を使えるようになっていくべきです。 「AIの上手な使い方」が今のエンジニアにとって必須スキルになりつつあるため、単にClineを使うだけでなく、その仕組みを理解することで得られるメリットは数多くあります。例えば、現時点でのClineの得手・不得手を理解することでAIに対して的確に指示ができたり、clin

    Clineに全部賭ける前に 〜Clineの動作原理を深掘り〜
    stealthinu
    stealthinu 2025/03/04
    Clineの内部構造の簡単な概要。Cline自体を修正していく際の参考に。
  • Inception Labs

    Introducing Mercury, the first commercial-scale diffusion large language model We trained diffusion large language models that are up to 10x faster and cheaper than current LLMs, pushing the frontier of intelligence and speed for language models. We trained diffusion large language models that are up to 10x faster and cheaper than current LLMs, pushing the frontier of intelligence and speed for la

    Inception Labs
    stealthinu
    stealthinu 2025/03/03
    Diffusion使ったLLM。サンプルはコーディングだけだがだいぶ速い。正確性はほんとに言うほどの性能あるんならDiffusionのLLMが天下取るとかもあるのかなあ…?
  • Crossing the uncanny valley of conversational voice

    How do we know when someone truly understands us? It is rarely just our words—it is in the subtleties of voice: the rising excitement, the thoughtful pause, the warm reassurance. Voice is our most intimate medium as humans, carrying layers of meaning through countless variations in tone, pitch, rhythm, and emotion. Today’s digital voice assistants lack essential qualities to make them truly useful

    Crossing the uncanny valley of conversational voice
    stealthinu
    stealthinu 2025/03/01
    これはすごそう。Moshiよりもさらに自然。Moshiは全二重という部分が大きな違いだったけどSesameは感情理解とかを深めたってとこの違い?
  • CLINEに全部賭けろ

    Cline を使い始めて2ヶ月ぐらい経った。 自分の直感として、Cline は真のイノベーションの入口であり、そして開けてはいけないパンドラの箱でもあったと思う。 ここでいう Cline は Cline型コーディングエージェントであり、広義には Devin / Cursor や Copilot Agent 等を含む話。だが、後述するように Cline でしか見えない世界がある。 その先の未来に、プログラマとしての自分はフルベットする、という話をする。 私たちが知っているプログラミングの終焉 大事なことは次の記事に全部書いてある。まずこれを読んでほしい。 (Google翻訳) Steve Yegge 氏は、置き換えられるのはジュニアおよび中級レベルのプログラマーではなく、新しいプログラミング ツールやパラダイムを受け入れず過去に固執するプログラマーであると指摘しています。 <略> これはプロ

    CLINEに全部賭けろ
    stealthinu
    stealthinu 2025/02/27
    GPT-4が出たときのレベルを思えばその先もすぐ想像できるはず。今はまだこの程度でもすぐ完全に人間は不要になるよ。プログラマが取り急ぎ必要なのは筋トレ。すぐプログラミング以外の趣味を探すことが必要になる。
  • 徹底解説!DifyとChatGPTのAPI連携|mito

    はじめにDifyを使えば、ノーコード・ローコードで手軽に生成AIアプリを構築できます。 記事では、Difyの基情報から始め、料金プランやAPI設定、実際の利用方法まで詳しく解説していきます。AIアプリ開発に興味がある方はぜひ活用してみてください。 Difyとは?Difyは、ノーコード・ローコードで生成AIアプリを構築できるプラットフォームです。LangGenius,Inc.が提供複数のLLM(大規模言語モデル)を組み合わせたり、外部文書を読み込んでRAG(Retrieval-Augmented Generation)を簡単に活用できる機能を備えています。 オープンソースの開発サービスです。 Difyの料金体系Difyは基的に無料で使用できますが、チームでの協力や高度な機能を活用する場合には費用が発生します。 フリープランの内容アプリ公開数:最大10個 ベクトルデータ保存容量:最大5M

    徹底解説!DifyとChatGPTのAPI連携|mito
    stealthinu
    stealthinu 2025/02/26
    difyでWebから見るログのタイムゾーンどこで設定できるんだ?と思ったら実はユーザの設定の「言語」にタイムゾーン設定があるのね。
  • Clineに自分をエミュレートさせて技術記事を代筆させてみたらビビった

    なんか驚き屋っぽくてアレなんだけど、今回はさすがに驚く権利があると思うので、至急記事を書く。 やろうとしたこと 毎回手元の検証結果から技術記事を構成するのがだるい 自分のブログを適当に読ませておいて、その構成と文体を真似させればいいのでは 手元に mizchi/zenn というリポジトリがあり、ここに zennにポストする原稿を管理している。 $ tree ./articles ./articles ├── 1c35fdcc77065c02f631.md ├── 3e4742e24f2ca0118f70.md ├── 8a017097d3994ddc0a85.md ├── ai-code-generation.md ├── ai-programmer.md ├── ai-team-mate.md ├── antipattern-of-tournament-score-sheet.md ├─

    Clineに自分をエミュレートさせて技術記事を代筆させてみたらビビった
    stealthinu
    stealthinu 2025/02/25
    自分の書いているブログ記事を参照させてどういう方向性の記事を書く人物かを抽出し、そのペルソナと元ネタ文を食わせて技術文書を書かせている。これでベースを書いて修正すれば良い。
  • オタクの気持ち悪い会話生成で見るLLMの差|品田遊(ダ・ヴィンチ・恐山)

    いま、大規模言語モデル(LLM)にはChatGPTの他にGemini、Claudeなど多数の競合がある。それらはコーディング性能や数学能力、推論力などで一長一短であるが、今回はそれを「オタクの会話」の生成で比較してみる。 ◯プロンプト:エヴァについて盛り上がるオタクの気持ち悪い会話を書いてみて ■ChatGPT 4o場所:都内の某カフェ 登場人物: A(アスカ推し):90年代オタク気質。やたらと「庵野の意図」を考察しがち。 B(レイ推し):冷静なようでいて、こじらせがち。オタク特有の早口。 C(マリ推し):新劇場版世代。旧作にも理解を示すが、新しいものを肯定したい。 D(ミサト推し):おっさん気質。酒飲みながら語るタイプ。 会話開始A「いや、エヴァってさぁ、結局“親との和解”の話なんだよ」 B「でもそれって旧劇の時点では達成されてなくない? だって最後、あの“気持ち悪い”で終わるわけじゃん

    オタクの気持ち悪い会話生成で見るLLMの差|品田遊(ダ・ヴィンチ・恐山)
    stealthinu
    stealthinu 2025/02/20
    GPT-4oがだいぶ良いな。こういうのやらせたらClaude-3.5-sonnetが一番だと思ってた。sonnetさんは得意すぎてやり過ぎちゃってる感があるのかもしれん。
  • 君たちはCursorを本当に使えているか

    はじめに こんにちは。Builtoという会社で代表 & エンジニアをしている冨田です。 私たちはマネジメントとタスク管理を圧倒的にサポートするAIエージェントを開発しています。 開発にもAIをフル活用しており、そこで得られた知見を共有したいと思います。 具体的には、経験3年以上の現役ソフトウェアエンジニア(生成AIのない時代からコードを書いてきた方々)をターゲットに、番運用レベルの大規模コードベースでもCursorを活用しコーディング時間を 1/3〜1/5 に縮めている手法をお伝えします。 仕様策定やアプリの機能にもLLMをフル活用していますが、今回は実装にフォーカスします! (なお記事は中級者以上向けのため、まだCursorに触れたことがない方はまず別の記事を参考にして、使ってみてください) なぜこの記事を書いたか 現職エンジニア当に使いこなす手法を共有したい すでに共有されてい

    君たちはCursorを本当に使えているか
    stealthinu
    stealthinu 2025/02/18
    CursorでcursorrulesとNotePadsを使うと便利というのが参考になった。
  • rinnaのDeepSeek R1蒸留モデルがすごい - きしだのHatena

    DeepSeek R1が話題になってだいぶたちますが、日語対応モデルも出てきてますね。 そして2/15にrinnaからDeepSeek R1の蒸留モデルが出ていて、これがかなりいい感じなのでびっくりしてます。驚き屋してます。 DeepSeek R1では、こっそりと回答方針を決めるフェーズがあるのだけど、そこがなかなか筋がいい。 というか、作り方もなんだかすごいので最後に解説してます。 Qwen2.5とDeepSeek R1を利用した日語大規模言語モデル「Qwen2.5 Bakeneko 32B」シリーズを公開|rinna株式会社 ※ 2/18追記 こういう記事を書くときに「これがローカルで動いてすごい」のように書くんですが、ここではローカルで動いてすごいということは書いてなく、普通にちゃんと答えがでてその内容がすごいという風になってきてますね。追記ここまで。 CyberAgentからも

    rinnaのDeepSeek R1蒸留モデルがすごい - きしだのHatena
    stealthinu
    stealthinu 2025/02/18
    rinnaのR1上流モデルはだいぶ凝った作りになってるのだな。試してみる。
  • 私のシンプルCursor活用方法|ニケちゃん

    こんにちは、ニケです。 皆さん、Cursor 使っていますでしょうか? 私はそろそろ使用歴1年半くらいになります。 5ヶ月前にこんな記事を書いたのですが、AI時代のコーディングアシスタントの進化は早く、今はもうこの時とは全く異なる使い方をしているので改めて紹介したいと思います(一部被っている内容もあります)。 なお、AIコーディングアシスタントにはその他にも、Github CopilotやCline、Windsurfなどがありますが、これらのコーディングツールはCursorほど使ったことがないため、今回の記事では紹介・比較はしません。 XのTLでもいろんな宗派を見かけるので、「どれを使ったら一番楽できるんだ?」とは考えずに、取り敢えず一つのエディタ・ツールを使い倒すことをオススメします。 ⚠ 以降で紹介する方法は個人的にハマっている方法なので、これがベストではないです。1つの参考として見て

    私のシンプルCursor活用方法|ニケちゃん
    stealthinu
    stealthinu 2025/02/17
    ニケちゃんさんComposerのAgentメインに鞍替えされたんだ。Composerだと一気に色々変更されすぎてどうかと思ってたが慣れていくしか無いか。
  • AIが普及すれば本当に人間の仕事は減るのか?戦後ガスを引く時に多くの主婦から「火の番は唯一の休憩時間だった」と反対された話

    丹波 高山寺 【尊御開帳】祐弘 @TanbaKosanji AIが普及すれば人間は仕事当に減るのでしょうか そこで思い出したのは、戦後に農村の生活改善、家事軽減の一つとして、かまどを廃してガスを引こうという運動に、多くの主婦からの反対があったという話 その理由は火の番が唯一の休憩時間であり、かまどが無くなれば別の仕事が増えるからだと 2025-02-15 15:42:15

    AIが普及すれば本当に人間の仕事は減るのか?戦後ガスを引く時に多くの主婦から「火の番は唯一の休憩時間だった」と反対された話
    stealthinu
    stealthinu 2025/02/17
    今回のAIの件はこれまでのものとはまったく質の違うものであることがわかってない人が多すぎる。人より知能の高い知能が出来たら人の知能は不要になるという話なのに。
  • gemini-2.0-flashが賢くてコスパがよすぎる件

    この記事はLLMをAPIで使うこと前提の記事です。 AI エージェント開発ハッカソン参加記事:Gemini 2.0 Flash で技術文書分析ツール「Tascario」を作ってみたの、技術的補足記事です。 APIでLLMを使っている皆さん gemini-2.0-flash を使っていますか?APIで使う限り、かなり性能が高く、コスパも良すぎて、APIならこれ一択で良いのでは?とすら思い始めています。

    gemini-2.0-flashが賢くてコスパがよすぎる件
    stealthinu
    stealthinu 2025/02/13
    一旦中間言語化することでCoTしてるのと同じ効果でより高精度な答えを出せるという手法。そのくらいの工夫をしてもAPI叩くならGemini-2.0-flash使うほうがお得ということらしい。
  • 生成AIは「意識」を持てる?「意識の秘密」に挑戦する科学者がヒトの脳と“機械の脳”を合体させたい理由 | レバテックラボ(レバテックLAB)

    生成AIは「意識」を持てる?「意識の秘密」に挑戦する科学者がヒトの脳と“機械の脳”を合体させたい理由 2025年2月7日 東京大学大学院工学系研究科准教授 渡邉 正峰 1970年、千葉県生まれ。東京大学大学院工学系研究科博士課程修了。専門は神経科学。著書に”From Biological to Artificial Consciousness” (Springer)、『脳の意識 機械の意識』(中央公論新社,2017)、『理工学系からの脳科学入門』(共著、東京大学出版会, 2008)など。近著は『意識の脳科学 「デジタル不老不死」の扉を開く』(講談社,2024)、『意識はどこからやってくるのか』(共著、早川書房, 2025)。 自らの「意識」の存在を疑ったことがある、という人はそう多くないでしょう。また、自らの意識の存在に疑問を差し挟む余地がないように、仕事や生活を共にする「他者」にも意識が

    生成AIは「意識」を持てる?「意識の秘密」に挑戦する科学者がヒトの脳と“機械の脳”を合体させたい理由 | レバテックラボ(レバテックLAB)
    stealthinu
    stealthinu 2025/02/07
    そう!もはやAGIの地点にいるのにまだAI(LLM)に「意識」を持ったという状況にはできてない。AGI達成するときにはすでに「意識」が存在してると思ってたわ。何が足らんのかを知りたい。
  • AIが進化すると、そもそも業務システムが不要になりそう - きしだのHatena

    ChatGPT O1やDeep Researchなどがすごいパフォーマンスを出してきていますね。もう仕組み上も単にLLMではなくAIとしか言えなくなってきています。 そんなAIが進化して、プログラミングをAIがやってくれるようになると、そのプログラムの確認をどうするんだって話があります。業務システムの開発では、プログラム読めない人がプログラムの生成に携わったりするようになって、できてきたプログラムが読めないってなる。 問題では?と思ったのだけど、そもそも業務システムが不要になりますね。 小さい堂で、伝票とかも取らずにちゃんとまわす人とかいますね。記憶力のいい人だと、昼のラッシュでもちゃんと覚えてまわせそうです。 ファミレスでバイトしてたとき、調子がいいときだと割と全部の注文を覚えれてたりしたので、それなりにまわせる人が多そうです。 そして、AIであればもっと記憶力よく考えてまわせるので、

    AIが進化すると、そもそも業務システムが不要になりそう - きしだのHatena
    stealthinu
    stealthinu 2025/02/05
    ブコメ上位がなんかなあと。つい2年前まではLLMでここまでAIが実現されるとはみんな思ってなかったよね。その後の進化もだいぶ速いよ?もうChatGPT以前の頃を覚えてないのかしら…
  • 高木浩光@自宅の日記 - ChatGPT o3-miniとGDPRの理解についてバトルした

    ChatGPT o3-miniとGDPRの理解についてバトルした Claudeは勘が良すぎて、もう一人の自分がいるみたいな感触で心地よいのだが、質問に引っ張られて根拠の怪しいことを言うことも多い*1ので危うい。もしやこれはエコーチェンバーの中にいるのでは?*2という不安感に苛まれる。ここはやはり、情報的健康のため、ChatGPTも使ってみるか(そういえば一昨年はGPT-4とバトルしていたのだなあ)ということで、o1と、今日出たばかりのo3-miniを使ってみた*3。 まず、o1の結果だが、勘の悪い弁護士という感じで、イラッときた。やり取りを全部読むと面白いと思うが、応答が冗長なので、載せてもあまり読まれないと思われる。そこで、o3-miniでやってみた(o3-mini-highを使用)ところ、同じような展開になるが、応答が簡潔なので、これなら読んでもらえるかなと思うので、これを載せてみ

    stealthinu
    stealthinu 2025/02/03
    わかる!!論理的矛盾とか根拠になってない根拠を詰めても絶対に自分のミスを認めないんだよね。なんなのあの頑固さ?やつらには感情が無いはずなのになぜ意固地な行動とるんだろ?
  • Sakana AI

    新手法「TAID」によって学習された小規模日語言語モデル「TinySwallow-1.5B」は、同規模のモデルの中で最高性能を達成しています。さらに、小規模のため、APIなどを介さずお手元のスマートフォンやPCで完結してチャットが可能です。ウェブアプリまたは、GitHubにてお試しいただけます。 稿は、経済産業省とNEDOが推進するGENIACによって支援されたSakana AIの研究成果を紹介するブログシリーズの第3回目です。 概要 日常的な対話はもとより、数学やコーティングといった複雑なタスクまでも人間と遜色ないレベルでこなせるようになった大規模言語モデル(LLM)は、今後ますます多くの場面での利活用が期待されています。こうした大きな期待の一方で、LLMの開発・活用の現場では、莫大な計算資源の必要性が大きな壁として立ちはだかってます。まずLLMの開発現場では、「大規模データと巨大計

    Sakana AI
    stealthinu
    stealthinu 2025/01/31
    1.5Bでここまで上がってきているのすごいな。最終的には1.5BでChatGPT-3.5なみの性能くらいまでいけたりするんかな。
  • https://unsloth.ai/blog/deepseekr1-dynamic

    stealthinu
    stealthinu 2025/01/31
    DeepSeek-R1の1.58bitのやつ。それでも131GB必要。1.73bitでGoodってなってて160GBくらいあるとローカルでR1がだいたいフル性能で動かせるっぽい。
  • Dario Amodei — On DeepSeek and Export Controls

    January 2025 A few weeks ago I made the case for stronger US export controls on chips to China. Since then DeepSeek, a Chinese AI company, has managed to — at least in some respects — come close to the performance of US frontier AI models at lower cost. Here, I won't focus on whether DeepSeek is or isn't a threat to US AI companies like Anthropic (although I do believe many of the claims about the

    Dario Amodei — On DeepSeek and Export Controls
    stealthinu
    stealthinu 2025/01/31
    色々な点で興味深い。本題ではないが、LLMは4倍/年の性能アップ、2026から27で完全なAGIが達成すると見てるとか、参考になる。
  • 推論時にも学習できるLLM!? 「Titans」|はまち

    Google Researchからtransformerアーキテクチャの記憶メカニズムを抜的に改善するモデルアーキテクチャに関する論文が公開されていました。とても興味深かったので概要をまとめてみました。 理解不足も多々あるので、興味を持たれた方はぜひ原文をご確認ください。また、間違いなどあればコメントいただけると幸いです。 1.概要現状の大規模事前学習言語モデル(LLM)の多くは推論時(テスト時)には学習は行われず、モデル使用時はあくまでも「推論専用」の存在でした。 「Titans: Neural Long-Term Memory for Enhanced Sequence Modeling」では、テスト時(オンライン学習フェーズ)にも新しい情報で学習内容をアップデート、蓄積し、従来のモデルアーキテクチャでは実現が難しかった記憶の忘却が可能な「Neural Memory(ニューラルメモリ

    推論時にも学習できるLLM!? 「Titans」|はまち
    stealthinu
    stealthinu 2025/01/27
    長期記憶と短期記憶を持つようにして推論時にも「学習」ができるようにしている。学習というよりコンテキストの記憶と言ったほうが正しそう。それが「学習」なのかもしれんが。