iBet uBet web content aggregator. Adding the entire web to your favor.
iBet uBet web content aggregator. Adding the entire web to your favor.



Link to original content: http://b.hatena.ne.jp/T-norf/LLM/
[B! LLM] T-norfのブックマーク

タグ

LLMに関するT-norfのブックマーク (80)

  • うちのアシスタントのしらせ君がすごいので自慢させてください。 - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? しらせ君 しらせ君は、弊社で働いているアシスタントです。僕の身の回りのいろいろなことをしてくれます。 しらせ君の業務一覧 メールチェック(1時間に1回) 緊急性の高いメールのSlack通知 その他のメールの既読化 ニュース報告 海外のテックニュースの収集 #randomに概要を報告 xに投稿 スケジュール管理 カレンダーの色分け 調整中予定のリマインド 会予定のへの通知 郵便物管理 バーチャルオフィスに届いた郵便物の画像を解析して内容を報告 議事録管理 議事録の自動保管、前回議事録のサマリー作成、次回のミーティングで通知 論文管理

    T-norf
    T-norf 2024/12/14
    MS Teamsも一部有償だけどAPIで取得や操作できそうで、会議録もそうだけど1on1とTodoあたりで何か作ると、生産性上がりそう。あとは、はてブAPIで、平日に仕事に関係ないブコメを書いたら、仕事しろーと注意するとか
  • [速報]Amazon、自社開発の基盤モデル「Amazon Nova」発表。テキストから画像や動画の生成、マルチモーダルまで対応

    Amazon Web Services(AWS)が米ラスベガスで開催中のイベント「AWS re:Invent 2024」で、基調講演にAmazon CEOのアンディ・ジャシー氏が登壇。同社が開発した新しい基盤モデルである「Amazon Nova」を発表しました。 Amazon Novaは複数のモデルから構成されています。 Amazon Nova Micro 低コストかつ小さなレイテンシでテキストのみを処理するモデル Amazon Nova Lite 低コストかつ高速な、画像、動画、テキストによる入力に対応したマルチモーダルなモデル Amazon Nova Pro 精度、スピード、コストの最適な組み合わせで幅広いタスクに対応する高性能なマルチモーダルモデル Amazon Nova Premier 同社のマルチモーダルモデルの中で最も複雑な推論タスクに対応し、カスタムモデルを抽出するための教師

    [速報]Amazon、自社開発の基盤モデル「Amazon Nova」発表。テキストから画像や動画の生成、マルチモーダルまで対応
    T-norf
    T-norf 2024/12/07
    正直、4位以降は試す元気ないので続報待ちかな
  • 今後生成AIとどう向き合うべきなのか? 現場のエンジニアと研究者が最新研究事例から語り合う

    ここ2〜3年で、GitHub Copilotなど、生成AIを利用した開発者支援サービスが続々登場した。すでに業務で利用されているという皆さんも少なくないだろう。一方で、「使ってはみたが、期待外れだった」と感じている人も多いに違いない。セッションのスピーカーは、「現場では得意不得意を見極めて、使い道を考えている」と語る。そして、「ソフトウェアエンジニアリングの研究コミュニティでも研究が進んでおり、得意不得意が論文という形で表れつつある」ともいう。このセッションでは、開発現場でコンサルタントやエンジニアとして活躍を続ける和田卓人氏と、アジャイルコーチとして開発の現場を支援しているやっとむ氏の2人がモデレーターを務め、名古屋大学大学院情報学研究科の森崎修司氏が、最新の研究事例と、自身の研究を紹介しながら、生成AIの得意、不得意について語った。 研究者が語る、生成AIの得意/不得意とは? まず森

    今後生成AIとどう向き合うべきなのか? 現場のエンジニアと研究者が最新研究事例から語り合う
  • RAGが「複雑な質問に弱い問題」を解決する「Plan×RAG」

    記事では、RAGの性能を高めるための「Plan×RAG」という手法について、ざっくり理解します。株式会社ナレッジセンスは、エンタープライズ企業向けにRAGを提供しているスタートアップです。 この記事は何 この記事は、RAGの文脈消える問題を克服する新手法「Plan×RAG」の論文[1]について、日語で簡単にまとめたものです。 今回も「そもそもRAGとは?」については、知っている前提で進みます。確認する場合はこちらの記事もご参考下さい。 題 ざっくりサマリー Plan×RAGは、RAGの精度を上げるための新しい手法です。アールト大学とMicrosoft Researchの研究者らによって2024年10月に提案されました。 ざっくり言うと、Plan×RAGとは、「計画を立ててから検索する」手法です。Plan×RAGでは、ユーザーの質問を、まず最初に小さな単位に分解。その後、それらの関係性

    RAGが「複雑な質問に弱い問題」を解決する「Plan×RAG」
    T-norf
    T-norf 2024/11/13
    「有向非巡回グラフ(DAG)」って何のこっちゃでChatGPTに聞いたけど、やってることは分かりやすくて、クエリをGPT-4oで「逐次の依存関係を持てる複数のサブ質問」に分解するのね。応用は効きそうで、すぐ実践できそう
  • 孫正義氏、10年以内に“人間の叡智の1万倍”の人工知能が誕生と予測 SoftBank World 2024で語ったAIの未来とは

    2024年10月3日、4日に開催された、ソフトバンク最大規模の法人向けイベント「SoftBank World 2024」。記事では、孫正義氏の特別講演の模様を全3回でお届けします。「10年以内に超知性が実現する」と語る孫氏が、ここ数年のテクノロジーの進歩について振り返ります。 「10年以内に超知性が実現する」孫正義氏:ソフトバンク株式会社の孫でございます。よろしくお願いします。最近いろんなアレルギーが飛んでいるみたいで、ちょっと声が枯れておりますが、よろしくお願いします。 1年に1回このSoftBank Worldで、これから起きるであろうと、少なくとも私がそう思っている近い未来について話す、そういう機会が今日であります。私なりの思い込みもあるかもしれません。でも、かなり強く思い込んでおりますので(笑)、そのつもりで聞いていただきたいと思います。それではさっそく始めます。 私は10年以内

    孫正義氏、10年以内に“人間の叡智の1万倍”の人工知能が誕生と予測 SoftBank World 2024で語ったAIの未来とは
    T-norf
    T-norf 2024/11/07
    67歳でこれは凄い。1万倍はともかく、2カ月前に出たばかりのo1への理解と将来性への反応。ゼロから10兆円の企業価値を作り上げたビジョナリーの発言、GPT-3.5の頃にダメ出しして満足してる人らの耳に押し込みたいな
  • LLMが自分で「より賢いLLMの作り方」を発見するSelf-Developingフレームワーク(NEC 石橋陽一氏) | AIDB

    マイページに保存最終更新日:2024/11/04 記事は、研究者が自ら著書の論文を解説する特別企画です。AIDBの通常記事とは異なり、企画の記事は会員以外のすべてのユーザーも全文閲覧できます。皆様ぜひお楽しみください。また、企画への応募は以前からXで募集しており、これが4記事目の公開となります。企画は継続開催中です。研究者の方はこちらからご応募ください。 今回は、NECの石橋 陽一氏ら研究グループによる”Can Large Language Models Invent Algorithms to Improve Themselves?“の解説です。 以下、論文著者による寄稿です。 自己紹介 名前とプロフィールページ 石橋 陽一 (Yoichi Ishibashi) X:@__tuxi__ 個人サイト: https://yoichi1484.github.io/ 所属 NEC Cor

    LLMが自分で「より賢いLLMの作り方」を発見するSelf-Developingフレームワーク(NEC 石橋陽一氏) | AIDB
    T-norf
    T-norf 2024/11/05
    これはモデルマージ手法だけ試してるけど、LLMがHugging Faceを覗いてきて「これ自分に試してみよ」「試してみたら賢くなったのでアップデートするぜ」みたいなことは、もう計算資源が潤沢なところはできちゃうかも
  • OpenAI、人の意図読むAI検索「ChatGPT search」 2億ユーザーに - 日本経済新聞

    【シリコンバレー=山田遼太郎】米オープンAIは31日、対話型AI人工知能)であるChat(チャット)GPTでインターネット検索サービスを始めたと発表した。文章を通じて質問すると、生成AIがウェブ上から有用な情報を集め、要約する。従来のキーワード検索と異なり、AIが人の意図をくんで情報を探す。【関連記事】チャットGPTは現在、毎週2億5000万人が利用している。段階的にすべてのユーザーが使える

    OpenAI、人の意図読むAI検索「ChatGPT search」 2億ユーザーに - 日本経済新聞
    T-norf
    T-norf 2024/11/01
    少し試してみたけど、記事中にもあるperplexityの真似を、短めな回答に振りつつやってる印象。ただGPT-4oの賢さを交えつつ深堀りできるのはいいかも。あとはMSのBingと組んでるので広告収益化でも組むかが気になるな
  • RAGの「文脈が消える問題」を解決する「LongRAG」

    株式会社ナレッジセンスは、エンタープライズ企業向けにRAGを提供しているスタートアップです。記事では、RAGの性能を高めるための「LongRAG」という手法について、ざっくり理解します。 この記事は何 この記事は、RAGの文脈消える問題を克服する新手法「LongRAG」の論文[1]について、日語で簡単にまとめたものです。 今回も「そもそもRAGとは?」については、知っている前提で進みます。確認する場合は以下の記事もご参考下さい。 題 ざっくりサマリー LongRAGは、「文書全体を読まないと正答できない」ようなタイプの質問に対しても、RAGの精度を上げるための新しい手法です。中国科学院・清華大学の研究者らによって2024年10月に提案されました。 ざっくり言うと、LongRAGとは、「階層化」+「フィルタリング」です。 2つとも、よく知られたRAGの手法ですが、これらを組み合わせるこ

    RAGの「文脈が消える問題」を解決する「LongRAG」
    T-norf
    T-norf 2024/10/29
    RAG周辺は、どんどん論文出てるけど、探して読む元気ないので助かるな。といいつつ、この記事もあとで/読んだけど、チャンクベクトルのヒットから、複数の手法でできる限りの情報収集と整理をやる感じだった
  • 生成AI/LLMを使ったウェブサイト開発 - laiso

    週末にちょっとしたウェブサイトというかリンク集(?)を作った。 今回は生成AIツールをフル活用していつもより効率よく作業ができた。 生成AIツールについては日々、新しいものがヤバイすごいと宣伝されているけど、実際にどう使っているのかという情報が少ないと感じている。 なので具体的な使い方を書いてみることにした。 作ったもの 開発の概要 最終的なアーキテクチャ UI開発に生成AIツールを使う 初期デザインの参考元 デザインツールの選定と比較 Next.jsの利用 Cursorを活用した開発 データ整形にLLMを使う スクレイピング Amazonの商品データ取得 LLMの選定 動的なコードと静的なコードの使い分け TypeScriptを使わない範囲を定めた 静的サイト生成(SSG)の採用 柔軟なデータベース設計 まとめ 作ったもの 『最も重要な「最も重要なマンガ10選」10選』は「最も重要なマン

    生成AI/LLMを使ったウェブサイト開発 - laiso
    T-norf
    T-norf 2024/10/28
    軽く試した範囲では、機能数・行数が少ないHTMLやコードは、どれも結構上手く書ける印象だけどGPT-4oはCSSが弱い。 4o < claude < o1。ただArtifacts便利なので、claude と o1 併用がいい気がする
  • HuggingFaceTB/SmolLM-360M-Instruct at main

    1723998831 +0000\ncommitter system 1723998831 +0000\n\nUpdate README.md"}}},"entries":[{"type":"directory","oid":"8fcd9e92f5995cddc77bcee675bfe8488e08fbb4","size":0,"path":"onnx","lastCommit":{"id":"6a860077d20f3822d62060cd772610e21ccc6322","title":"v0.2","date":"2024-08-17T22:29:49.000Z"}},{"type":"file","oid":"a6344aac8c09253b3b630fb776ae94478aa0275b","size":1519,"path":".gitattributes","lastCom

    HuggingFaceTB/SmolLM-360M-Instruct at main
    T-norf
    T-norf 2024/10/14
    All you need is Entropic Samplingかな(言いたかっただけ)。出力機構はshi3zさんが解説してくれてたけど、学習機構はどうしてるのだろ。うろ覚えは再学習とかできそうな気もするけど
  • GitHub - SinatrasC/entropix-smollm: smolLM with Entropix sampler on pytorch

    T-norf
    T-norf 2024/10/14
    shi3zさんの投稿じゃ分からずにやってきたけど、GPT-4o君と対話しつつ理解できたかな。エントロピーと分散エントロピーの計算は、最終ノードへの全入力値を対象とした計算ね。これは、またまた世界が変わるぞ
  • 物理学者の逆襲!?Entropixはわずか3億6000万パラメータで1000億パラメータ級の回答を引き出す!Claude-3でも間違う問題を360Mが正しく解く|shi3z

    物理学者の逆襲!?Entropixはわずか3億6000万パラメータで1000億パラメータ級の回答を引き出す!Claude-3でも間違う問題を360Mが正しく解く 物理学者たちがノーベル物理学賞をホップフィールドとヒントンが受賞すると知った時、まあまあ微妙な気持ちになったことは想像に難くない。 我々コンピュータ科学者にとっては、ノーベル賞は全く無縁なものだった。むしろ「ノーベル賞をコンピュータ科学者が取ることは永久にない」と言い訳することさえできた。コンピュータ科学の世界にはチューリング賞という立派な賞があるし、ノーベル賞よりも賞金が高かった京都賞は、アラン・ケイやアイヴァン・サザーランド、ドナルド・クヌースなど、コンピュータ科学者たちが堂々と受賞している。その割には来マイクロチップの最初の設計者である嶋正利などが京都賞にノミネートされていなかったり、サザーランドの弟子であるアラン・ケイの

    物理学者の逆襲!?Entropixはわずか3億6000万パラメータで1000億パラメータ級の回答を引き出す!Claude-3でも間違う問題を360Mが正しく解く|shi3z
    T-norf
    T-norf 2024/10/13
    微妙についてけない。エントロピーとバレントロピー何を対象に計算してるのだろ。あとLLMの出力器がトークンを決めるとこだけ変えてる? と、smolLMはこの出力機構で学習したモデル?? 天才じゃない人の解説欲しい
  • OpenAIの新しいマルチエージェント用フレームワークSwarmを試す|はち

    Google ColabでSwarmを試したのでまとめました。 1. SwarmOpenAIが新しくマルチエージェント構築のためのフレームワークを作り始めました。まだ実験的なフレームワークで、番環境での使用を想定していないようで、今の所かなりシンプルな仕組みに見えます。 エージェントの調整と実行を軽量で、制御性が高く、テストしやすいものにすることに重点を置いているようです。 2. Google Colabで実行してみる2.1 実行準備ライブラリのインストール !pip install git+https://github.com/openai/swarm.gitOPENAI_API_KEYを環境変数として設定。(SwarmはOpenAI APIを使うので必要) import os from google.colab import userdata os.environ["OPENAI_A

    OpenAIの新しいマルチエージェント用フレームワークSwarmを試す|はち
  • 「現在のLLMに真の推論は困難」──Appleの研究者らが論文発表

    AppleAI研究者らは10月7日(現地時間)、「GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models」(LLMにおける数学的推論の限界を理解する)という論文を発表した。 この論文は、LLM(大規模言語モデル)が、当に人間のように論理的に考えて問題を解けるのか、という疑問を検証している。結論としては、LLMは今のところ、表面的なパターンを真似て答えを出しているだけで、真の推論能力は持っていないと主張している。 研究者らは、これらの問題点を検証するために、「GSM-Symbolic」という新しいテスト方法を開発した。これは、LLMの数学的推論能力を評価するためのベンチマークデータセット「GSM8K」を改良し、問題の表現や数字を柔軟に変えられるようにした

    「現在のLLMに真の推論は困難」──Appleの研究者らが論文発表
    T-norf
    T-norf 2024/10/13
    こういう論文が書かれてる一方で o1-previewが出てきてるのよね。複数のLLMが協調して出力して、その出力まとめを人間が評価し、良い出力を個々のLLMの学習に追加利用する循環で、推論力はまだ上がると思う
  • ChatGPTと協力しながらコーディングや執筆が可能なアプリ「Canvas」をOpenAIがリリース

    ChatGPTと協力しながら文章執筆やコーディングなどの作業をこなせるアプリ「Canvas」のベータ版が2024年10月3日にリリースされました。記事作成時点ではChatGPT Plusの加入者向けにベータテストが実施されており、テストの終了後は無料ユーザーも利用可能になる予定です。 Canvas is a new way to write and code with ChatGPT | OpenAI https://openai.com/index/introducing-canvas/ Canvasでは「ChatGPTに文章やコードの下書きを入力して清書させる」「ChatGPTが生成した文章の一部を人力もしくはChatGPTに依頼して修正する」といった操作が可能です。内部では「GPT-4oを共同作業用にトレーニングしたモデル」が動作しており、OpenAIはCanvasを「ChatGPT

    ChatGPTと協力しながらコーディングや執筆が可能なアプリ「Canvas」をOpenAIがリリース
    T-norf
    T-norf 2024/10/04
    触ってみたけどコーディング特化に見えて、イメージ出力も容易なClaude Artifactsとは少し違うかな。職業プログラマじゃないからGitHub Copilotには手を出してなくて、それとの機能差・能力差は、他者の評価を待つべか
  • 生成AIを活用したシステム開発の現状と展望 - 生成AI時代を見据えたシステム開発に向けて - |日本総研

    現在、大規模言語モデル(LLM)に代表される生成AIがシステム開発の領域において注目を浴びており、システム開発プロセス全体の効率化から、特定の業務における自動化まで、その応用範囲は広がり続けている。レポートでは、生成AIを用いたシステム開発についての現状を整理し、生成AIによって今後のシステム開発がどのように変化していくか考察したものである。 第1章では、生成AIがシステム開発において具体的にどのような場面(ユースケース)で活用できるかを述べ、ユースケースに対応した具体的な生成AIサービスとして、汎用的な生成AI(OpenAI社のChatGPTGoogle社のGeminiなど)やエンジニアアシスタント型の生成AI(GitHub Copilot, Cursorなど)を紹介している。 第2章では、ITベンダやSIerでの事例を中心に、各企業におけるシステム開発領域での生成AI活用の動向につ

    生成AIを活用したシステム開発の現状と展望 - 生成AI時代を見据えたシステム開発に向けて - |日本総研
    T-norf
    T-norf 2024/10/01
    量も密度も凄い。ちょうど調べてまとめようと思ってたところなんだけど、コンサルのガチ仕事で圧倒される。インパクトがあるところを抜粋して、漏れてるところを拾うべか
  • GitHub Copilotの効果は本物?論文から読み解く開発生産性の真実 - Findy Tech Blog

    はじめに こんにちは。プロセス改善・アジャイルコーチで、Tech Blog編集長の高橋(@Taka_bow)です。 皆さんは、2021年6月に生まれたGitHub Copilotを利用していますか? この生成AIベースのコーディング支援ツールは、コードの自動補完や生成、関数の自動生成、エラー修正支援など、開発者の作業を多面的にサポートします。 ファインディでは2023年3月から導入し、開発チーム全員が日常的に活用しています。Findy Team+で効果を測定した結果、コーディングの効率化やコミュニケーションコストの削減、さらには開発者の満足度向上など、多くの利点が確認されました。 今回は、このようなソフトウェア開発における生成AIの影響を分析した最新の論文を紹介します。GitHub Copilotが開発プロセスにもたらす変化や、開発者の生産性への影響についての研究が書かれた、興味深い論文で

    GitHub Copilotの効果は本物?論文から読み解く開発生産性の真実 - Findy Tech Blog
    T-norf
    T-norf 2024/09/20
    全てのソフトウェア開発業の経営者、マネージャーに読ませたい論文。さらに言うと、どう考えても、この子、まだまだ賢くなるのよ。
  • tiktokenでgpt-3.5-turboとgpt-4oのトークン数を比較する

    GMO NIKKOのT.Nです。 最近弊社のプロダクトで使用しているOpenAIのモデルを、 gpt-4oやgpt-4o-miniに切り替えました。 gpt-3.5-turboを使用していた時と比較して、 トークン数に変化があったので、 tiktokenの処理時間も含めて確認してみました。 確認方法 以下のようなプログラムで、 トークン数と処理時間の平均を確認しました。 import tiktoken import timeit import statistics with open('sv_jp.txt', encoding="utf-8") as f: sv_text = f.read() model_name = "gpt-4o" tokenizer = tiktoken.encoding_for_model(model_name) # トークン数 token_count = len

    tiktokenでgpt-3.5-turboとgpt-4oのトークン数を比較する
    T-norf
    T-norf 2024/08/23
    そう、このトークン効率アップ分2〜3割も値下がりしてるのよ
  • GoogleのマルチモーダルAI「Gemini 1.5 Flash」の使用料金が最大78%の大幅値下げ

    Googleが2024年5月に発表したAIモデル「Gemini 1.5 Flash」は、ベンチマークテストにおいて高性能なGemini 1.5 Proに匹敵する性能を発揮できるにもかかわらず、Gemini 1.5 Proのわずか10分の1という低価格が特徴の一つです。そしてGoogleは2024年8月12日から、Gemini 1.5 Flashの大幅な値下げを実施することを発表しました。 Gemini 1.5 Flash price drop with tuning rollout complete, and more - Google Developers Blog https://developers.googleblog.com/en/gemini-15-flash-updates-google-ai-studio-gemini-api/ Gemini API の料金  |  Goo

    GoogleのマルチモーダルAI「Gemini 1.5 Flash」の使用料金が最大78%の大幅値下げ
    T-norf
    T-norf 2024/08/12
    競争、激しいな。価格表の改訂が早すぎて、更新日を足さなきゃだ
  • OpenAI、最新AIモデル料金値下げ わずか1年半で9分の1に(アスキー) - Yahoo!ニュース

    OpenAIが8月7日(現地時間)、最新AIモデル「GPT-4o」API利用料金の引き下げを発表した。入力トークンで50%、出力トークンで33%の引き下げとなる。 OpenAIが8月7日(現地時間)、最新AIモデル「GPT-4o」API利用料金の引き下げを発表した。入力トークンで50%、出力トークンで33%の引き下げとなる。 前モデル「GPT-4」のAPI利用料金は、2023年3月の導入時に100万トークンあたり36ドルだったが、2023年11月には「GPT-4-turbo」の登場により14ドルに下がった。2024年5月の「GPT-4o」では7ドルとなり、最新版の「GPT-4o-2024-08-06」では4ドルにまで低下。わずか1年半でコストが9分の1に落ちたことになる。 料金の引き下げだけでなく、機能面も進化した。新モデルは構造化出力(Structured Outputs)をサポートし、

    OpenAI、最新AIモデル料金値下げ わずか1年半で9分の1に(アスキー) - Yahoo!ニュース
    T-norf
    T-norf 2024/08/09
    値下げが多すぎてついてくの大変。これはClaude 3.5 Sonnet 対抗かな。初代のGPT-4から比べると、日本語だとトークナイザー効率も上がってるので利用料は1/10以下よ