AIの中核概念、実世界での応用、倫理的配慮を発見する。Ultralytics がコンピュータビジョンの革新をどのように推進するかを学ぶ。
人工知能(AI)とは、機械、特にコンピュータシステムによる人間の知能プロセスのシミュレーションを指す。視覚認識、音声認識、意思決定、言語翻訳など、通常人間の知能を必要とするタスクを実行できるシステムを作ることに焦点を当てた幅広い分野である。1956年にジョン・マッカーシーによって造語されたAIは、推論し、学習し、自律的に行動できるマシンの構築を目指している。研究者の中には、人工知能(AGI)の実現を最終目標とする者もいるが、現在のアプリケーションのほとんどは、特定のタスクに秀でた人工狭知能(ANI)に該当する。この概念はしばしばチューリング・テストと関連付けられる。チューリング・テストとは、人間と同等、あるいは区別できない知的行動を示す機械の能力を測る尺度である。
AIは、いくつかの主要なサブフィールドを包含する包括的な用語であり、それぞれが知的システムの開発に貢献している:
AIは現代の生活や産業の数多くの側面に組み込まれている:
Ultralytics 、AI、特にコンピュータビジョン(CV)領域の発展に重要な役割を果たしています。当社の最先端の Ultralytics YOLOモデルは、最新の YOLO11は、物体検出、画像分類、インスタンスセグメンテーションなどのタスクに高性能なソリューションを提供します。Ultralyticsのドキュメントでは、さまざまなYOLO モデルを比較することができます。AIをより身近なものにするため、Ultralytics HUBを提供しています。これは、モデルのトレーニング、検証、デプロイメントのプロセスを合理化するために設計されたプラットフォームです。ドキュメンテーションと クイックスタートガイドで、ツールの使い方を詳しくご覧ください。
AIの急速な発展と普及は、重要な倫理的問題を提起している。主な懸念事項には、不公正な結果につながる潜在的なアルゴリズムの偏り、データのプライバシーとセキュリティの確保、AIの意思決定における透明性の維持(XAI)、AIの行動に対する説明責任の確立などがある。AIにおける公正さと責任あるイノベーションを推進するには、Partnership on AIや Association for Computing Machinery(ACM)などの組織が提唱する倫理的枠組みを遵守し、協力することが必要です。我々のAI倫理用語集やResponsible AIブログポストで議論されているように、これらの問題を理解し対処することは、信頼できるAIシステムを構築する上で極めて重要である。AAAI(Association for the Advancement of Artificial Intelligence:人工知能振興協会)のような組織が推進し、スタンフォードAIインデックス・レポートのようなリソースが追跡する研究開発の継続は、AIの未来を責任を持ってナビゲートするために不可欠です。