データ連携とは、複数のデータソースに分散しているデータをまとめ、一元的に把握できる状態にするための取り組みです。情報を中央のシステムに集約することで、整合性と正確性を保った分析が可能になります。データ連携ツールは、システム間でデータを変換・マッピングし、リアルタイム分析やレポーティング、BI(Business Intelligence:企業の意思決定に役立つ分析・可視化の仕組み)といった業務を支えます。
このプロセスでは、データベース、クラウド基盤、業務アプリケーションなど、さまざまなシステムからデータを取得し、それを業務で活用できる形式に変換したうえで、データウェアハウスやデータレイクなどの中央管理基盤に格納します。
分散していたデータを集約することで、企業は業務の流れを整理し、情報へのアクセス性を高めることができます。このような一元化された環境により、部門や業務プロセスをまたいだ包括的な分析が可能となり、より精度の高いインサイトを得られるようになります。その結果、企業全体での意思決定に活かせる実用的な情報が生まれます。
また、データ連携を適切に行うことで、ITコストの削減やリソースの有効活用、データの質の向上にもつながります。既存のシステムやデータ構造を維持したままでも新しい仕組みを取り入れやすくなるため、日々の業務を止めることなく新しい取り組みやイノベーションを促進することができます。
データ連携にはいくつかの種類があり、専門のソフトウェアを使いながら手動で行うこともあれば、完全に自動で進めることもあります。開発者や管理者は、プロジェクトの規模や目的に合わせて最適なやり方を選ぶことで、複雑なデータ環境を効率よく整えていくことができます。
データ連携の仕組み
データ連携は、すべての企業に当てはまる単一の方法があるわけではありません。ただし、どのデータ連携プロセスにも共通する基本的な要素が存在します。代表的なものとして、複数のデータソースと、それらを取りまとめるマスターサーバーが挙げられます。考え方自体は比較的シンプルですが、実際に仕組みとして構築・運用するには難易度が高いケースも少なくありません。データ連携は、まずデータの取り込みから始まります。これはデータインジェクション(Data Ingestion:各種システムからデータを収集・取得する工程)」と呼ばれ、名前のとおり、データシステムから必要な情報を集める作業です。
ユーザーから特定のデータが求められると、メインサーバーがそのリクエストを受け取り、複数のデータシステムから情報を取得します。サーバーは各データソースから必要なデータのみを抽出し、統合された一つのシステムとして利用できる形にまとめ、指定された先へ送信します。
データが連携された後、その情報はTPS(Transaction Processing System:日々の取引や業務処理をリアルタイムで扱うシステム)へ送られます。その後、データの種類に応じて保存先が分かれます。構造化データ(あらかじめ形式が定義されたデータ)はデータウェアハウス(分析用に整理・構造化されたデータを集約して保存する基盤)に、非構造化データ(形式が定まっていないデータ)はデータレイク(形式を問わず生データをそのまま大量に保存できる基盤)に格納されるのが一般的です。
データ連携を構成する重要な要素は「ソース」と「ターゲット」です。その間で行われるのが、データソースにある情報を取得し、コピーや変換を行い、利用者がすぐに使える形式に整えるプロセスです。ソースにはクラウド上のデータや基幹業務システムなどがあり、ターゲットは元データの複製、データレイク、データウェアハウスなどが該当します。
IT技術者やソフトウェア開発者は、専用のツールやソフトウェアを活用してこの一連の流れを自動化しています。これにより、送り元の情報をどのような目的で、どのような形式にしてターゲットに渡すかを細かくコントロールすることができるようになります。
まとめると、データ連携のプロセスは、データの取得、処理、コピー、クレンジング(不要・不正確なデータの修正)、変換を行い、必要なデータだけを適切なターゲットへ届ける一連の流れだといえます。
データ連携の重要性
現代の企業にとって、データ活用はビジネス活動を行う上で必要不可欠になっています。個人で運営するオンラインショップのような小さなお店であっても、サービスを提供するためにデータは必要です。これが大企業となれば、データは単なる情報ではなく、事業運営に不可欠な経営資産となります。
企業の成長に伴い、データベースの数や規模も拡大していきます。その結果、従来の方法ではデータ管理が追いつかず、非効率になるケースが少なくありません。そこで重要になるのが、マスターデータ管理(Master Data Management:企業全体で共通して使う重要データを一元管理する仕組み)です。この仕組みを有効に機能させるためには、データ連携の仕組みが不可欠となります。データ連携によって、分散したデータ資産を把握しやすくなり、情報管理の精度が高まります。
データ管理システムを利用している職場では、何らかの形でデータ連携が行われています。特に、大量のデータを扱う企業、非営利団体、教育機関、研究機関などでは、データ連携の有用性が高いといえます。
企業が迅速に意思決定を行うためには、必要なデータへすぐにアクセスできる環境が求められます。そのためには、複数のデータ保管場所やデータソースから情報を取得し、整理し、まとめて扱える状態にする必要があります。こうして連携されたデータは、追加の処理や特定の業務目的のために、すぐに活用できるようになります。
中規模以上の組織にとって、データ連携は業務効率化のための重要な要素です。企業や各種機関、コンソーシアムなど、複雑な業務環境と膨大なデータベースを持つ組織では、データを連携させることで業務全体の効率が向上します。さらに、部門や利用者ごとに必要なデータへ迅速にアクセスできるようになり、データ活用に関わる業務全般の改善につながります。
データ連携ソリューションは、個々のデータソースを大規模に改修する代替手段としても有効です。異なる領域のデータを連携させることで、データ品質と可用性を確保でき、結果として複雑なデータベースをより適切に扱えるようになります。これは、企業全体のデータ活用力を高める重要なポイントです。
データ連携の種類
データ連携には、目的や業務要件に応じていくつかの方法があります。ここでは代表的な手法を紹介します。
ETL(抽出・変換・格納)
ETLとは「Extract(抽出)」「Transform(変換)」「Load(格納)」の頭文字を取ったものです。データベースや業務システムからデータを取得し、使いやすい形に変換してから、主にデータウェアハウスなどの保管場所に保管します。ETLによるデータ連携は50年ほどの歴史がある非常にスタンダードな手法で、データウェアハウス構築における基本的な連携方式として広く使われてきました。
ELT(抽出・格納・変換)
ELTは、ETLとほぼ同じ考え方ですが、処理の順番が入れ替わっています。ELTは「Extract(抽出)」「Load(格納)」「Transform(変換)」の順です。ETLでは変換を行ってから格納しますが、ELTではまず未加工のデータをそのままターゲットに格納し、その後に変換処理を行います。クラウド環境など、処理性能の高い基盤を前提としたデータ連携で多く採用されています。
バッチ連携とリアルタイム連携
ETLやELTに加えて、データの扱い方として「バッチ連携」と「リアルタイム連携」があります。
バッチ連携は、一定期間に蓄積されたデータをまとめて処理し、まとまった単位でデータを転送する方法です。定期的な集計や分析用途でよく使われます。
リアルタイム連携は、データが取得された直後に変換・転送を行う方法です。これにより、企業はデータをほぼ瞬時に取得・処理・移動できます。リアルタイム連携では、CDC(Change Data Capture:データソースで発生した更新や変更のみを検知して反映する仕組み)が使われることが一般的です。これにより、変更内容が即座にデータウェアハウスや別のターゲットシステムへ反映されます。
データレプリケーション(複製)
データレプリケーションも、バッチ連携やリアルタイム連携と組み合わせて利用されるデータ連携手法の一つです。データソースからターゲットのデータベースへ、データやその変更内容を複製します。主に、データの同期や障害発生時の復旧対策として活用されるケースが多いのが特長です。
データ仮想化
データ仮想化は、少し特殊な手法です。データ仮想化は、データを実際にコピー・変換・格納することなく、複数の異なるデータソースをあたかも一つのデータセットであるかのように表示・参照できるようにするデータ連携手法です。
リアルタイムで複数のデータソースを横断的に参照できるため、データの物理的な移動を伴わずに、統合された情報を閲覧・活用したい場合に適しています。
データ連携におけるデータ品質の重要性
データ連携を成功させるためにとても重要になるのが、「データの品質」です。質の低いデータは、分析結果の精度を下げ、誤った判断を招き、業務効率を落とすことになりかねません。だからこそ、高品質なデータを維持することが非常に重要です。
一方で、高いデータ品質を確保するのは簡単ではありません。データのクレンジング(不要・不正確なデータの修正)、検証、標準化といった工程が必要となります。これらの取り組みによって、連携されたデータの正確性、一貫性、信頼性が保たれます。
データ品質を重視することで、データ連携の取り組みから得られる価値を最大化できます。その結果、より的確な意思決定が可能になり、業務全体の効率化にもつながります。
データ連携の手法
適切なデータ連携手法を選ぶことは非常に重要です。ただし、その選択はデータの量・処理速度・種類によって異なります。あわせて、データソースや連携先の特性、利用可能な時間やリソースも重要な判断材料となります。
それぞれの手法には特長があり、用途に応じて適した使い分けが求められます。
- ETL(抽出・変換・格納):必要な変換処理を行ったうえで、大量のデータをデータウェアハウスに格納する場合に適しています。
- ELT(抽出・格納・変換):まず生データを格納し、その後に変換処理を行う手法です。モダンなデータウェアハウスの処理性能を活かしたい場合に有効です。
- データレプリケーション(複製):データの一貫性を保ち、いつでも使える状態にするために、ある場所から別の場所へデータをそのままコピーする手法です。
- データ仮想化:データを物理的に移動させることなく、複数のデータソースをまとめて参照できる状態を作り、リアルタイムでのデータ連携を実現します。
これらの手法を正しく理解し、状況に合わせて最適なものを選ぶことで、データ連携の効果を最大限に引き出すことができるようになります。
データ連携ツールとは
データ連携ツールは、ソフトウェア型のソリューションです。データの取り込み、集約、変換、転送といった一連のプロセスを効率化し、さまざまなデータソースからターゲットシステムへのデータ連携をスムーズに実現します。特にクラウド環境におけるデータ連携を簡素化するうえで重要な役割を果たします。主な機能として、データマッピング(項目同士の対応付け)、クレンジング(不要・不正確なデータの修正)、変換などがあります。
データ連携プラットフォームには、一般的に次のような機能やツールが含まれます。
- データカタログ:メタデータ(データの属性や定義などの情報)を整理・管理する機能です。企業内のどこにどのようなデータがあるのかを把握しやすくなります。
- データクレンジング:データセット内の誤りや不整合を検出・修正し、データ品質を高めるための機能です。正確で信頼性の高いデータ活用を支えます。
- データコネクター: 異なるデータソースやシステム間を接続するための機能です。これにより、データの流れを円滑にします。
- データガバナンス(Data Governance): 企業全体でデータ管理のルールや責任範囲を定め、適切に運用する考え方・仕組み):企業の基準や法令順守要件に沿ったデータ管理を実現します。
- データ移行:システムのアップデートや統合の際に、データを別の場所へ安全に「引っ越し」させるためのツールです。
- ETLツール:データを分析可能な状態に処理したうえで、データウェアハウスへ格納する機能です。
マスターデータ管理(MDM): 顧客情報や商品情報など、組織全体で共通利用する重要データの整合性と正確性を一元管理します。
データ連携ソフトウェアには、大きくわけて4つの種類があります。
- オンプレミス型ツール(社内設置型):自社のローカルサーバーに直接インストールして使うタイプです。アクセス権限の設定、セキュリティ対策、データの保管場所、システム変更の管理などを自社基準で細かく統制できます。規制対応や厳格なセキュリティ要件が求められる企業に適しています。
- クラウド型ツールクラウド上で提供されるサービスです。拡張性や柔軟性に優れ、スピーディーに環境を構築できます。クラウド環境を前提とした企業に適しています。
- オープンソース型ツール:プログラムの設計が公開されているツールで、世界中の開発者によって支えられています。導入コストを抑えたい場合に適していて、ニーズに合わせて自分たちで機能をカスタマイズできるのが特徴です。
- 商用データ連携ツール:ベンダーが提供する商用製品です。機能がとても充実しており、手厚いサポートを受けられるのが強みです。複雑な連携が必要な場合でも、高い連携機能を提供しているため、スムーズに対応することができます。
データ連携がもたらす6つのメリット
1. データサイロの解消
データサイロとは、部門やシステムごとに情報が分断され、共有されない状態を指します。その結果、業務の非効率化や、企業全体を俯瞰できない状況を招きます。
DIP(Data Integration Platform:複数のデータソースを連携・統合するための基盤)は、こうした分断を解消し、データを企業全体で横断的に活用できる環境を整えます。必要なデータにアクセスしやすくなることで、部門間の連携が進み、業務効率の向上につながります。
2. データ品質と一貫性の向上
データの品質と一貫性は、企業活動の基盤です。DIPは、異なるデータソースから集めた情報を標準化し、検証することで、活用可能な状態へ整えます。手作業による処理で発生しがちなミスや不整合も抑制できます。
また、データの一貫性が保たれることで、法規制や業界標準への対応もしやすくなり、法務・財務リスクの低減にも寄与します。
3.意思決定の高度化
経営層や部門責任者が適切な判断を行うには、正確で包括的なデータが必要です。DIPは複数のデータソースを集約し、業務全体を見渡せる視点を提供します。
その結果、トレンド分析や将来予測、戦略立案をより確かな根拠に基づいて行えるようになります。
連携されたデータに基づく意思決定は、競争優位の確立にも直結します。
4. 高度な分析の実現
データ連携は、高度なデータ分析の前提条件です。多様なデータを集約することで、より精緻な分析モデルを構築できます。予測分析やパターン検出など、これまで分断されたデータでは実現が難しかった分析も可能になります。
さらに、リアルタイム分析にも対応できるため、市場の変化や新たな機会に迅速に対応できる体制を整えられます。
5. イノベーションと競争優位の確立
迅速にデータを連携・活用できる企業は、新たなビジネスモデルの創出や既存プロセスの最適化を進めやすくなります。DIPは、こうした取り組みを支える柔軟性を提供します。
顧客ニーズの変化を捉えやすくなり、新しい収益機会の創出や業務効率の向上にもつながります。その結果、競合に先んじて市場機会を捉えることが可能になります。
6. 生成AIを活用したデータパイプラインの構築
生成AI(Generative AI:テキストやコードなどを自動生成するAI技術)とデータパイプライン(データ取得から処理・格納までの一連の流れ)を組み合わせることで、自動化と効率化が大きく進みます。AIツールを活用すれば、REST API(Webサービス間でデータをやり取りするための標準的なインターフェース)に容易に接続でき、エンドツーエンドのデータパイプラインを迅速に構築できます。これにより、開発負荷を抑えながら、柔軟なデータ活用基盤を整えることが可能です。
データ連携における主な4つの課題
1. 複数のデータソースの存在
複数のデータソースを連携させることは、大きな課題の一つです。データ形式や構造、品質基準が異なるため、統一して扱うのが容易ではありません。各システムで使用している技術、スキーマ(データ構造の定義)、セマンティクス(データの意味付け)が異なる場合も多く、データを共通の形式で扱えるようにするには工数がかかります。その結果、導入の遅延やコスト増加につながることもあります。
また、データが常に「正しく、最新の」状態を保つためには、継続的なモニタリング(監視)とメンテナンス(保守管理)が欠かせません。
2. データの意味(セマンティクス)の違い
データセマンティクス(Data Semantics:データが何を意味するのかという定義や解釈)は、システムごとに異なる場合があります。複数のデータソースを連携する場合、こうした意味の違いが誤解やデータの不整合を引き起こしす原因となります。
例えば、同じ項目名でもシステムごとに意味が異なるケースや、同じ内容のデータでも記録形式が違うケースがあります。こうした違いを解消するには、慎重なデータマッピングと定義の統一が必要です。
3. レガシーシステムとの連携
多くの企業では、最新のデータ連携を前提として設計されていないレガシーシステム(Legacy Systems:長期間利用されている既存の基幹システム)が依然として利用されています。これらのシステムはAPIを備えていない場合や、旧式のデータ形式を使用している場合があり、処理能力も限定的です。そのため、包括的なデータ連携戦略に組み込むことが難しいケースがあります。
しかし、レガシーシステムに蓄積されたデータも重要な経営資産です。データサイロのリスクを回避し、既存データを最大限活用するためにも、連携は避けて通れません。
4. 拡張性とパフォーマンス
企業の成長に伴い、処理・連携すべきデータ量は増加します。その中で、パフォーマンスを維持しながらデータ連携を拡張できるかどうかは大きな課題です。
これに対応するには、拡張性のあるインフラへの投資、データ連携プロセスの最適化、パフォーマンス監視ツールの活用が重要となります。将来的なデータ増加を見据えた設計が、安定した運用の鍵となります。
企業が実践すべきデータ連携のベストプラクティス
データ連携は、企業の最終的な成果を左右する重要な取り組みです。複数のデータソースを組み合わせて、より精度の高い意思決定を行いたい企業や、業務効率を高め、競争優位を確立したい企業にとって、大きな価値をもたらします。
代表的なベストプラクティスは、次のとおりです。
- データガバナンス:データガバナンス(Data Governance:企業全体でデータ管理のルールや責任範囲を定め、適切に運用する仕組み)を明確に定義することが重要です。データの正確性やセキュリティを確保し、個人情報保護法や業界ごとのガイドラインなどの法規制にも対応できる体制を整える必要があります。
- 目的と要件の明確化:データ連携の目的を具体的に定義することが出発点です。どのデータソースを対象とするのか、どの形式で扱うのか、どのレベルのデータ品質が求められるのかを整理します。目的が曖昧なままでは、連携基盤が形骸化する恐れがあります。
- データ品質の確保:定期的なデータ品質チェックやクレンジングを実施することで、連携されたデータの一貫性と正確性を維持できます。データ品質は一度整えれば終わりではなく、継続的な管理が必要です。
- 拡張性とパフォーマンスへの配慮:選定するデータ連携ソリューションは、企業の成長に合わせて拡張できるものであるべきです。適切なソフトウェア、ハードウェア、データベース技術を組み合わせることで、パフォーマンスを最適化できます。将来のデータ量増加を見据えた設計が重要です。
- 監視(モニタリング)と記録(ログ)の徹底:トラブルをリアルタイムで検知しすぐに対処できるアラート(警告)システムを導入しましょう。また、日々の処理内容をログ(いつ、どんな処理が行われたかなどの記録)として残しておくことで、監査やトラブルシューティングがスムーズになります。
これらのベストプラクティスを押さえることで、データ連携は単なるシステム間の接続ではなく、企業全体のデータ活用力を高める基盤として機能します。
現代におけるデータ連携の役割
急速に変化する各業界の経済環境において、企業は多様なデータ基盤に依存しています。自社のエコシステムに流入する情報を集約し、顧客一人ひとりに最適化された体験を提供するためです。
企業が日々扱うデータ量は膨大であり、適切なデータ連携戦略がなければ、その管理は非常に困難になります。データにはまだ活用されていない価値が多く存在しており、その価値を引き出す鍵となるのがデータ連携です。
日々、さまざまな種類のデータが個別のシステムに蓄積されています。大規模な企業では、顧客データ、CRM(Customer Relationship Management:顧客情報や商談履歴を管理する仕組み)データ、業務データ、業績・財務データなど、多岐にわたるデータを扱います。こうした情報を連携せずに個別管理していると、業務は複雑化し、管理負担も増大します。
しかし、データ連携基盤を導入すれば、複数のデータソースから情報を収集し、統合された形で活用できます。部門横断でデータを共有できる環境が整うことで、全社的な視点での分析や意思決定が可能になります。
データ連携がもたらす効果は広範囲に及びます。ヒューマンエラーや情報伝達ミスのリスクを抑え、業務プロセスを効率化し、時間やコストを削減できます。さらに、大量データを活用することで、これまで解決が難しかった課題への対応も可能になります。これは、企業競争力を高める重要な要素です。
データ連携プラットフォームとは?
データ連携プラットフォームとは、IT担当者や開発者が、複数のデータセットからデータを検索・取得し、クレンジングし、転送するために利用するソフトウェアやデータ連携ツールを指します。これを活用することで、分析やレポーティングに適した、整理された正確なデータセットを構築できます。
データ連携プラットフォームは、分散したデータセットから情報を抽出し、処理し、保存し、インデックス化(検索しやすい形に整理)し、連携するまでを包括的に支えるアーキテクチャ(システム全体の設計構造)を提供します。従来型のDBMS(Database Management System:データベースを管理するためのシステム)に代わる存在として導入が進んでおり、コーディングや手作業によるデータ処理を最小限に抑えられる点が特長です。
また、データ連携プラットフォームは、コストや時間の削減にもつながります。操作性にも優れており、企業が事業拡大に合わせてデータ連携基盤を拡張できる柔軟性を備えています。増え続ける膨大なデータを適切に管理し、迅速に活用するための基盤として重要な役割を果たします。
プロセス連携とデータ連携の違い
プロセスベースの連携とデータベースの連携の大きな違いは、連携されたデータが利用可能になるまでの時間にあります。
プロセスベースのアプリケーション連携は、2つ以上のアプリケーションを接続し、処理やデータをリアルタイムで同期させる仕組みです。業務プロセスそのものを横断的につなぎ、操作や更新内容が即座に他システムへ反映されます。
一方、データ連携は、連携処理が完了した後に情報が統合される仕組みです。一般的にはリアルタイム処理ではなく、定期的にまとめて処理するバッチ方式で実行されます。複数のデータシステムに蓄積された情報を収集し、一定単位で集約・統合します。
つまり、プロセス連携(アプリケーション連携)はリアルタイムで実行され、少なくとも2つ以上のアプリケーション間で情報を同期・処理します。これに対し、データ連携は、複数システムのデータをまとめて統合する仕組みです。
もう一つの違いは、扱うデータ量です。プロセス連携では、比較的小規模なデータを対象に、発生と同時に更新・同期を行います。そのため、迅速なデータ変更が可能です。
これに対し、データ連携は、個別のシステムに蓄積された大量データをまとめて処理するのが一般的です。目的は業務処理の即時同期というよりも、分析やレポーティングに適した形でデータを統合することにあります。
つまり、プロセス連携は「業務をリアルタイムでつなぐ」ための連携、データ連携は「データを集約し活用する」ための連携、という違いがあります。
エンタープライズ・データ連携とは
エンタープライズ・データ連携とは、1つまたは複数の企業にまたがる複数のデータソースを横断的に連携する取り組みを指します。主に、大規模な企業グループや持株会社、業界団体、コンソーシアムなど、大量のデータを扱う組織で必要とされます。部門ごとに分断されたデータサイロや、マスターデータ管理基盤に蓄積されたデータを統合するケースが代表的です。
典型的な例としては、企業同士の提携や、買収・合併(M&A)の場面が挙げられます。この場合、双方の企業は各部門に分散しているデータベースを統合し、整合性を保ちながら同期させる必要があります。
大量の情報を扱う大規模組織にとって、エンタープライズ・データ連携はデータ管理の中核となる要素です。特に、サイロ化されたデータや、非構造化データ、形式が統一されていないデータ、十分に活用されていないデータが各所に点在している場合、その重要性はさらに高まります。
この取り組みによって、企業は全体を俯瞰できる視点を得られます。複数のデータベースを中央のインターフェースで一元的に扱えるようになり、生産性の向上や、既存データおよび今後発生するデータを含めた統一的なデータ連携アーキテクチャ(全体設計)を構築できます。
データ連携の活用事例
データ連携のニーズは企業ごとに異なります。業界、提供する製品・サービス、顧客層、データの流れなど、さまざまな要因によって求められる連携の形は変わります。ここでは、業界を問わず代表的な活用例を紹介します。
データウェアハウスへのデータ移行
企業は、大量データを集約・分析し、経営判断に活かすためにデータ基盤を構築します。レポート作成やデータ分析、インサイトの抽出を行うには、まず複数のデータソースから関連データを収集する必要があります。
さらに、収集したデータは分析に適した形式へ整形しなければなりません。この工程を支えるのがデータ連携です。分散しているデータを集約し、分析可能な状態へ変換することで、迅速な意思決定を可能にします。
複数システム間でのデータ同期
複数のデータシステムを運用している企業では、データを統一的に把握できる状態を作ることが重要です。例えば、2つの小売企業が統合する場合、それぞれが独自のデータシステムを持ち、ほぼ同様の顧客データや販売データを管理しているケースがあります。
この場合、両社のデータを連携し、システム間で同期させる必要があります。重複データの削除や不要・古いデータの整理を行い、既存データの価値を最大化します。
現代のデータ基盤においては、効率的なデータパイプライン(データ取得から処理・格納までの流れ)の構築、迅速な連携、そして強固なデータガバナンスが不可欠です。これらを実現することで、企業はデータを戦略的に活用できる環境を整えられます。
その全体像については、断片化されたデジタル環境を最新の連携方法でつなぐをご覧ください。分断されたデジタル環境をどのように整理し、現代的なデータ連携によって価値を生み出すのかを具体的に紹介しています。