ファイルの写真:Googleは、Julesという新しいツールを使用してAIエンコードセグメントを導入しました。 |提供された写真:ロイター Googleは、Julesという新しいツールを使用してAIエンコードセグメントを導入しました。このツールは、昨年12月にGoogle Labsのために提示されましたが、今ではそのベータ版が一般に利用可能になります。 ジュールは、人工知能をコーディングする他のアシスタントと同様に、コードを書き、デバッグし、テストを実行できます。 「これは、既存のストレージと直接統合するエージェントヘルパーである非同期です。これは、セーフな仮想マシンGoogleクラウド(VM)でコードベースをクローン化し、プロジェクトの完全なコンテキストを理解し、新しい機能の作成、オーディオチャメログの提供、依存者のプッシュバージョンなどのタスクを実行します。 このツールは、市場で人気のあるカーソルなど、既存のAIコーディングエージェントと競合します。 さらに、GoogleはStitchという新しいAIツールを起動して、開発者がアプリケーション設計でユーザーインターフェイスをすばやく作成できるようにしました。 Gemini 2.5 Proで動作するツールがGoogle Labsで利用可能になりました。 ユーザーは単にテキストのヒントを導入する必要があります。画像を参照して、数分でユーザーインターフェイスとFrontenコードの設計に変換されます。このツールにより、開発者はさまざまなスタイルやレイアウトを実験できます。 ユーザーインターフェイスのアセットがコードを使用して生成された後、アプリケーションに直接追加するか、別の設計ツールにエクスポートして、さらなる明確化を改善することができます。 公開 – 2025年5月21日、16:19 IST IST Source link
Tag: Google I/O 2025
Google I/O | Beam Google Meet Translation and Project Astra統合の実装
Googleはまた、彼がエージェント機能をChrome、検索、Geminiアプリケーションにもたらすと付け加えました [File] |提供された写真:ロイター 開発者や他のGoogle技術者向けの彼の年次入力イベントで、Google Meetでのスピーチのより自然な翻訳、Gemini LiveでのProject Astra Integrationのより自然な翻訳であるBeamと呼ばれる2D-3Dビデオプラットフォームなど、AIで多くの生成オファーを開始しました。 BeamはHPと協力して構築されたデバイスであり、今年の終わりに初期の顧客が利用できるようになります。 Beamはビデオモデルを使用して、Googleによると、2Dカットを現実的な3D -Salesに変換し、カメラとAIを使用して3D Lightfieldディスプレイにエンティティを表示します。 一方、ベータ版のGoogle AI ProとUltraの購読者は、英語とスペイン語の言語でGoogle Meetでリアルタイムの翻訳を受け取ります。後でより多くの言語が展開されます。ワークスペースのクライアントは、今年早期にテストするためにこの機能を受け取ります。 AIの翻訳の新しい機能は重要です。これは、ダイナミクスの音声、トーン、表現に対応することを目的としているため、翻訳された相互作用がより有機的になるため重要です。 これに加えて、プロジェクトASTRA AI AI AI AI AI AI-SSEアシスタントの提案はGeminiに組み合わされているため、Gemini LiveユーザーはCamera […]
Googleは、検索を変更するための旅の次の段階で「AI」を解き放ちます
Googleはまた、検索アルゴリズムで最新の人工知能モデルGemini 2.5を提供します [File] |提供された写真:ロイター Googleは火曜日に、人工知能技術の別の波をリリースして、その検索システムの年間構成をスピードアップしました。これにより、メソッドが情報を受信し、Webサイトでのインターネットトラフィックの流れを制限します。 Google開発者の年次会議で説明されている次の段階には、米国での新しいAIモードのリリースが含まれています。この関数は、ほぼすべてのトピックに関する質問に答えることができる専門家との会話のように、Google検索エンジンとの相互作用を行います。 人工知能モードは、会社が限られた聴衆の聴衆とのテストを開始してからわずか2か月後に、米国のすべての訪問者に提供されます。 Googleはまた、検索アルゴリズムで最新のGemini 2.5人工知能モデルを提供し、コンサートのチケットを自動的に購入したり、生きているビデオを検索したりする可能性など、人工知能の他の機能のテストをすぐに開始します。 AIへのGoogleユニバーサルアプローチの別の例では、同社は、新しいペアのAndroid XRポイントでスマートメガネ市場を再入るためにテクノロジーを使用することを計画していると述べました。ハンドのないカメラと人工知能の音声アシスタントを含む今後のデバイスの予備視聴は、Google Glassデビューの13年後に行われます。これは、機密性の問題についての一般的な否定的な反応の後に会社が拒否した製品です。 Googleは、彼のAndroid XRメガネがいつ利用できるか、またはどれだけの費用がかかるかについては言いませんでしたが、Gentle MonsterやWarby Parkerとのパートナーシップで開発されると報告しました。メガネは、すでにMater Meta PlatformsとRay-Banの市場にいる同様の製品と競合します。 拡張機能は、Googleが1年前に「AIレビュー」と呼ばれる口語的な履歴書の導入から始めた変換に基づいており、結果のページの上部にますます登場し、従来のウェブサイトの評価を覆い隠しています。 Googleによると、約15億人がAIレビューと定期的に対話し、現在、より長くて複雑なリクエストを導入しています。 「この進歩は、私たちが現在、世界中の人々にとって何十年もの研究が現実になっているAIプラットフォームの変更の新しい段階にいることを意味します」と、Google Sundar Pichaiのゼネラルディレクターは、会社の本部近くの円形劇場で混雑した群衆になったことを意味します。 Pichaiと他のGoogleのリーダーは、AIのレビューがより多くの検索を引き起こし、最終的には他のサイトをクリックすると、BrightEdgeの検索のためのBrightEdge検索の結論によると、このようにまだ機能していないと予測していましたが。 最近公開されたBrightEdgeの調査によると、Google検索インジケーターはほぼ30%減少しました。 […]