pho @ohp_pho 専門商社の人が「AIはゴルフできないし相手のキャディバッグも持てないでしょ!焼酎薄めとか濃いめで作れないし、カラオケでタンバリンしないでしょ!負ける要素は一つとしてないです」と断言していて力強かった 2025-03-03 17:22:03
pho @ohp_pho 専門商社の人が「AIはゴルフできないし相手のキャディバッグも持てないでしょ!焼酎薄めとか濃いめで作れないし、カラオケでタンバリンしないでしょ!負ける要素は一つとしてないです」と断言していて力強かった 2025-03-03 17:22:03
はじめに AIのコーディングアシスタントとして最近、急速に注目を集めているCline。VSCode上でAIと連携し、コード生成からバグ修正、さらにはターミナル操作まで自動化できるこのツールは、多くのエンジニアの生産性を劇的に向上させています。 mizchiさんの『CLINEに全部賭けろ』という記事では、 AIから引き出せる性能は、自分の能力にそのまま比例する AI自体を管理するパイプライン設計を自分のコアスキルにする必要がある ともあるように、エンジニアはClineという強力なツールの最大限を使えるようになっていくべきです。 「AIの上手な使い方」が今のエンジニアにとって必須スキルになりつつあるため、単にClineを使うだけでなく、その仕組みを理解することで得られるメリットは数多くあります。例えば、現時点でのClineの得手・不得手を理解することでAIに対して的確に指示ができたり、clin
Introducing Mercury, the first commercial-scale diffusion large language model We trained diffusion large language models that are up to 10x faster and cheaper than current LLMs, pushing the frontier of intelligence and speed for language models. We trained diffusion large language models that are up to 10x faster and cheaper than current LLMs, pushing the frontier of intelligence and speed for la
How do we know when someone truly understands us? It is rarely just our words—it is in the subtleties of voice: the rising excitement, the thoughtful pause, the warm reassurance. Voice is our most intimate medium as humans, carrying layers of meaning through countless variations in tone, pitch, rhythm, and emotion. Today’s digital voice assistants lack essential qualities to make them truly useful
Cline を使い始めて2ヶ月ぐらい経った。 自分の直感として、Cline は真のイノベーションの入口であり、そして開けてはいけないパンドラの箱でもあったと思う。 ここでいう Cline は Cline型コーディングエージェントであり、広義には Devin / Cursor や Copilot Agent 等を含む話。だが、後述するように Cline でしか見えない世界がある。 その先の未来に、プログラマとしての自分はフルベットする、という話をする。 私たちが知っているプログラミングの終焉 大事なことは次の記事に全部書いてある。まずこれを読んでほしい。 (Google翻訳) Steve Yegge 氏は、置き換えられるのはジュニアおよび中級レベルのプログラマーではなく、新しいプログラミング ツールやパラダイムを受け入れず過去に固執するプログラマーであると指摘しています。 <略> これはプロ
はじめにDifyを使えば、ノーコード・ローコードで手軽に生成AIアプリを構築できます。 本記事では、Difyの基本情報から始め、料金プランやAPI設定、実際の利用方法まで詳しく解説していきます。AIアプリ開発に興味がある方はぜひ活用してみてください。 Difyとは?Difyは、ノーコード・ローコードで生成AIアプリを構築できるプラットフォームです。LangGenius,Inc.が提供複数のLLM(大規模言語モデル)を組み合わせたり、外部文書を読み込んでRAG(Retrieval-Augmented Generation)を簡単に活用できる機能を備えています。 オープンソースの開発サービスです。 Difyの料金体系Difyは基本的に無料で使用できますが、チームでの協力や高度な機能を活用する場合には費用が発生します。 フリープランの内容アプリ公開数:最大10個 ベクトルデータ保存容量:最大5M
なんか驚き屋っぽくてアレなんだけど、今回はさすがに驚く権利があると思うので、至急記事を書く。 やろうとしたこと 毎回手元の検証結果から技術記事を構成するのがだるい 自分のブログを適当に読ませておいて、その構成と文体を真似させればいいのでは 手元に mizchi/zenn というリポジトリがあり、ここに zennにポストする原稿を管理している。 $ tree ./articles ./articles ├── 1c35fdcc77065c02f631.md ├── 3e4742e24f2ca0118f70.md ├── 8a017097d3994ddc0a85.md ├── ai-code-generation.md ├── ai-programmer.md ├── ai-team-mate.md ├── antipattern-of-tournament-score-sheet.md ├─
いま、大規模言語モデル(LLM)にはChatGPTの他にGemini、Claudeなど多数の競合がある。それらはコーディング性能や数学能力、推論力などで一長一短であるが、今回はそれを「オタクの会話」の生成で比較してみる。 ◯プロンプト:エヴァについて盛り上がるオタクの気持ち悪い会話を書いてみて ■ChatGPT 4o場所:都内の某カフェ 登場人物: A(アスカ推し):90年代オタク気質。やたらと「庵野の意図」を考察しがち。 B(レイ推し):冷静なようでいて、こじらせがち。オタク特有の早口。 C(マリ推し):新劇場版世代。旧作にも理解を示すが、新しいものを肯定したい。 D(ミサト推し):おっさん気質。酒飲みながら語るタイプ。 会話開始A「いや、エヴァってさぁ、結局“親との和解”の話なんだよ」 B「でもそれって旧劇の時点では達成されてなくない? だって最後、あの“気持ち悪い”で終わるわけじゃん
はじめに こんにちは。Builtoという会社で代表 & エンジニアをしている冨田です。 私たちはマネジメントとタスク管理を圧倒的にサポートするAIエージェントを開発しています。 開発にもAIをフル活用しており、そこで得られた知見を共有したいと思います。 具体的には、経験3年以上の現役ソフトウェアエンジニア(生成AIのない時代からコードを書いてきた方々)をターゲットに、本番運用レベルの大規模コードベースでもCursorを活用しコーディング時間を 1/3〜1/5 に縮めている手法をお伝えします。 仕様策定やアプリの機能にもLLMをフル活用していますが、今回は実装にフォーカスします! (なお本記事は中級者以上向けのため、まだCursorに触れたことがない方はまず別の記事を参考にして、使ってみてください) なぜこの記事を書いたか 現職エンジニアが本当に使いこなす手法を共有したい すでに共有されてい
DeepSeek R1が話題になってだいぶたちますが、日本語対応モデルも出てきてますね。 そして2/15にrinnaからDeepSeek R1の蒸留モデルが出ていて、これがかなりいい感じなのでびっくりしてます。驚き屋してます。 DeepSeek R1では、こっそりと回答方針を決めるフェーズがあるのだけど、そこがなかなか筋がいい。 というか、作り方もなんだかすごいので最後に解説してます。 Qwen2.5とDeepSeek R1を利用した日本語大規模言語モデル「Qwen2.5 Bakeneko 32B」シリーズを公開|rinna株式会社 ※ 2/18追記 こういう記事を書くときに「これがローカルで動いてすごい」のように書くんですが、ここではローカルで動いてすごいということは書いてなく、普通にちゃんと答えがでてその内容がすごいという風になってきてますね。追記ここまで。 CyberAgentからも
こんにちは、ニケです。 皆さん、Cursor 使っていますでしょうか? 私はそろそろ使用歴1年半くらいになります。 5ヶ月前にこんな記事を書いたのですが、AI時代のコーディングアシスタントの進化は早く、今はもうこの時とは全く異なる使い方をしているので改めて紹介したいと思います(一部被っている内容もあります)。 なお、AIコーディングアシスタントにはその他にも、Github CopilotやCline、Windsurfなどがありますが、これらのコーディングツールはCursorほど使ったことがないため、今回の記事では紹介・比較はしません。 XのTLでもいろんな宗派を見かけるので、「どれを使ったら一番楽できるんだ?」とは考えずに、取り敢えず一つのエディタ・ツールを使い倒すことをオススメします。 ⚠ 以降で紹介する方法は個人的にハマっている方法なので、これがベストではないです。1つの参考として見て
生成AIは「意識」を持てる?「意識の秘密」に挑戦する科学者がヒトの脳と“機械の脳”を合体させたい理由 2025年2月7日 東京大学大学院工学系研究科准教授 渡邉 正峰 1970年、千葉県生まれ。東京大学大学院工学系研究科博士課程修了。専門は神経科学。著書に”From Biological to Artificial Consciousness” (Springer)、『脳の意識 機械の意識』(中央公論新社,2017)、『理工学系からの脳科学入門』(共著、東京大学出版会, 2008)など。近著は『意識の脳科学 「デジタル不老不死」の扉を開く』(講談社,2024)、『意識はどこからやってくるのか』(共著、早川書房, 2025)。 自らの「意識」の存在を疑ったことがある、という人はそう多くないでしょう。また、自らの意識の存在に疑問を差し挟む余地がないように、仕事や生活を共にする「他者」にも意識が
ChatGPT O1やDeep Researchなどがすごいパフォーマンスを出してきていますね。もう仕組み上も単にLLMではなくAIとしか言えなくなってきています。 そんなAIが進化して、プログラミングをAIがやってくれるようになると、そのプログラムの確認をどうするんだって話があります。業務システムの開発では、プログラム読めない人がプログラムの生成に携わったりするようになって、できてきたプログラムが読めないってなる。 問題では?と思ったのだけど、そもそも業務システムが不要になりますね。 小さい食堂で、伝票とかも取らずにちゃんとまわす人とかいますね。記憶力のいい人だと、昼のラッシュでもちゃんと覚えてまわせそうです。 ファミレスでバイトしてたとき、調子がいいときだと割と全部の注文を覚えれてたりしたので、それなりにまわせる人が多そうです。 そして、AIであればもっと記憶力よく考えてまわせるので、
■ ChatGPT o3-miniとGDPRの理解についてバトルした Claudeは勘が良すぎて、もう一人の自分がいるみたいな感触で心地よいのだが、質問に引っ張られて根拠の怪しいことを言うことも多い*1ので危うい。もしやこれはエコーチェンバーの中にいるのでは?*2という不安感に苛まれる。ここはやはり、情報的健康のため、ChatGPTも使ってみるか(そういえば一昨年はGPT-4とバトルしていたのだなあ)ということで、o1と、今日出たばかりのo3-miniを使ってみた*3。 まず、o1の結果だが、勘の悪い弁護士という感じで、イラッときた。やり取りを全部読むと面白いと思うが、応答が冗長なので、載せてもあまり読まれないと思われる。そこで、o3-miniでやってみた(o3-mini-highを使用)ところ、同じような展開になるが、応答が簡潔なので、これなら読んでもらえるかなと思うので、これを載せてみ
新手法「TAID」によって学習された小規模日本語言語モデル「TinySwallow-1.5B」は、同規模のモデルの中で最高性能を達成しています。さらに、小規模のため、APIなどを介さずお手元のスマートフォンやPCで完結してチャットが可能です。ウェブアプリまたは、GitHubにてお試しいただけます。 本稿は、経済産業省とNEDOが推進するGENIACによって支援されたSakana AIの研究成果を紹介するブログシリーズの第3回目です。 概要 日常的な対話はもとより、数学やコーティングといった複雑なタスクまでも人間と遜色ないレベルでこなせるようになった大規模言語モデル(LLM)は、今後ますます多くの場面での利活用が期待されています。こうした大きな期待の一方で、LLMの開発・活用の現場では、莫大な計算資源の必要性が大きな壁として立ちはだかってます。まずLLMの開発現場では、「大規模データと巨大計
January 2025 A few weeks ago I made the case for stronger US export controls on chips to China. Since then DeepSeek, a Chinese AI company, has managed to — at least in some respects — come close to the performance of US frontier AI models at lower cost. Here, I won't focus on whether DeepSeek is or isn't a threat to US AI companies like Anthropic (although I do believe many of the claims about the
Google Researchからtransformerアーキテクチャの記憶メカニズムを抜本的に改善するモデルアーキテクチャに関する論文が公開されていました。とても興味深かったので概要をまとめてみました。 理解不足も多々あるので、興味を持たれた方はぜひ原文をご確認ください。また、間違いなどあればコメントいただけると幸いです。 1.概要現状の大規模事前学習言語モデル(LLM)の多くは推論時(テスト時)には学習は行われず、モデル使用時はあくまでも「推論専用」の存在でした。 「Titans: Neural Long-Term Memory for Enhanced Sequence Modeling」では、テスト時(オンライン学習フェーズ)にも新しい情報で学習内容をアップデート、蓄積し、従来のモデルアーキテクチャでは実現が難しかった記憶の忘却が可能な「Neural Memory(ニューラルメモリ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く