時々 – 頻繁ではありませんが、私は誰かがテクノロジーを構築しているので、インターネットの未来を変えることができます。
Sashaは珍しい企業の1つであり、オンラインでコンテンツを管理、対話、保護する方法を再定義するプライバシーファーストツールを開発しています。
個人が自分の画像を制御し、説明責任をデジタル共有に組み込むことにより、デジタルの世界への参加方法を根本的に変える可能性があります。
このテクノロジーにより、画像がオンラインで乱用されている場合、画像が操作またはスクリーンショットされている場合でも、画像がオンラインで乱用されている場合、画像が乱用されている場合、ファーストリンク漏れ剤を潜在的に識別することができます。
私は、サーシャのCEO兼創設者であるトーマス・エリクソンと話をしました。
個人的なプライバシー違反から公共の使命まで
サーシャ(Safe Shareの略)は2020年に設立され、オンラインの画像ベースの虐待(IBA)と個人情報の盗難を防止および対処しようとしています。サーシャのビジネス目的は、被害者のサービヴァーが自分の画像をコントロールすることを支援し、彼らの行動に対して法的に責任を負わせることを支援することです。
同社は、元ボーイフレンドがオンラインの親密な画像を漏らしたエリクソンの親友の経験に触発されました。それは悲痛でした。
エリクソンは、「私は彼女を助けたかった。私は「あなたはそれを報告するべきだ」と言って、解決策を探し始めました。
「問題がどれほど大きいか – 画像に基づいた虐待がどれほど広まっているか、そして何かを削除するのがどれほど難しいかにショックを受けました。私たちは警察に行きましたが、加害者は偽のアカウントの後ろに隠れているので何でもするのは難しいと言いました。
プラットフォームは、それが公開されている場合はそれを削除するだろうと言いましたが、プライベートメッセージでは?それは困難でした – あまりにも多くの障壁。
最終的に、コンテンツを削除しましたが、10分以内に、わずかな変更で新しい偽のアカウントの下で再び現れました。そして、それは何度も起こりました。」
「結果なし、コントロールなし」:問題は解決するために構築されました
Erikssonは、MedTech、Edtech、およびDigital Innovationのバックグラウンドを持つデンマークのコンセプト開発者およびシリアル起業家です。彼は、Covid-19ロックダウン中に「Roskilde Fever」キャンペーンを主導し、Odense University Hospital、Danish Center for Learning Materialsを含む、Roskilde Festivalなど、クリエイティブと商業の両方のために製品とキャンペーンを作成しました。
彼は、なぜこの問題が解決されなかったのか疑問に思ったのですか?
「逆の画像検索は機能しますが、公開されているコンテンツでのみです。透かし式ツールがありますが、目に見える、壊れやすい、または集中化されています。
最終的に、私はこの問題が結果の欠如に要約されたことに気付きました。オンラインで同意せずに画像を共有することに結果はありません。それがルートです。」
物理的な世界では、結果を強制するシステム(法律、社会的規範)を構築しました。オンライン?それほどではありません。
「それで、「どのようなテクノロジーが結果を回復できるのか」と尋ねました。」
エリクソンによると、最初に、シェアの意図を文書化する必要があります。
「私の子供の写真をメッセンジャーを介して義理の母に送って、それが他の場所で終わるなら、私はそれをたどることができるはずです。私があなたに私の車を貸して、あなたがそれをクラッシュさせる他の誰かにそれを与えるならば、あなたはまだ責任を負います。」
第二に、技術は堅牢でなければなりませんでした。オンラインの画像は、圧縮、回転、フィルター、ミームを使用します。
「メタデータはアップロードした瞬間に剥がされます。11度回転させるか、それを描画すると、ほとんどの透かしは死にます。」
第三に、スケーラブルでなければなりませんでした。
「私たちは1日あたり140億の画像を共有しています。したがって、クラウドではなく、ユーザーのデバイスで機能するものを構築する必要があります。これは、プライバシーとスケールを無限に保護します。」
サーシャの仕組み
サーシャでは、透かしまたは署名が画像ピクセルに直接埋め込まれています。
エリクソンは説明した:
「私たちは「ヘイスタックの針」と呼ばれるものを隠しました。ここでは、干し草の山はサッカー場の大きさで、針は実質的に見えません。」
サーシャは、圧縮と操作の両方に対して回復力があり、データの整合性を維持しています。そのシステムは、分散ネットワークを介して直接デバイスで画像を堅牢に保護します。
「圧縮、回転、スクリーンショットの後でも、信号はそのまま続きます。ベータ版では、別の電話画面の写真から署名を検出することもできます。」
さらに、画像虐待者がより洗練されるにつれて、サーシャも洗練されています。その反復学習プロセスは、新しい攻撃を研究および処理し、将来の発生を防ぐためにこれらの洞察を適用します。
重要なことに、サーシャはEUの法律に沿ってGDPRなどの厳格なプライバシー基準に完全に準拠しています。認識のために各画像のインプリントのみを使用し、画像がプライベートなままであることを確認します。
会社は元の画像にアクセスしたり保管したりしていません。ユーザーは、アプリを介してカタログ化された画像を共有できます。
別のユーザーがSashaアプリを介して画像を共有しようとする場合、SashaはAI-Embeddedテクノロジーを使用して、この特定の画像ファイルが別のユーザーによって「共有できない」と明示的にマークされた画像ファイルの派生物であるかどうかを確認します。この場合、サーシャアプリが共有をブロックします。
これは、誰かがどこかで自分のイメージを見つけてはならないことを見つけた場合、それをスキャンし、誰がそれを共有したかを正確に知ることができることを意味します。彼らは、アプリを通して直接テイクダウンリクエスト、または停止と廃止の手紙を送信することができます。それは、プラットフォームが気になるのを待つだけでなく、人々に行動する力を与えます。
シェアの時点でデジタル同意を埋め込む
サーシャは現在B2Cモデルに集中していますが、その究極の目標はB2B2Cモデルであり、B2Cモデルを冗長にします。
Erikssonによると、「今、コンテンツのモデレートは反応的です。誰かが画像を報告し、モデレーターがそれをレビューし、それがポリシーを破るかどうかを決定します。」
「それは遅く、高価で、主観的です。
サーシャでは、プラットフォームは「ここにいるべきですか?」という画像を尋ねることができます。イメージは次のように答えます。「いいえ、私はこの人のために、この文脈では意図されていました。」ブーム – 削除。
コンテンツを見る必要はありません。推測する必要はありません。所有者の意図を実施するだけです。」
サーシャの最大のシフトは、技術がプラットフォームに組み込まれたときです。同社は、これをメッセージングとアップロード機能に構築するために、最大のハイテクプレーヤーの一部と話し合っています。
B2B2Cモデルは、被害者の生存者が非同意的なイメージ共有の加害者を識別することを容易にするだけでなく、そもそもそのような非合意の共有を防ぐことを目指しています。
誰かが画像を転送しようとしたとき、彼らのアプリは次のように述べていると想像してください。エリクソンが共有したように、「それはイメージ自体に同意を組み込むようなものです。
同社はまた、デジタル安全サービスを提供する保険および電話会社のパートナーとの緊密な対話でもあります。彼らは顧客のためのサーシャプレミアムアクセスをスポンサーします。同社は、当社の保護を統合したいプラットフォームにAPIを提供します。
サーシャの次のステップはディープフェイクです。エリクソンは、サーシャのシステムが画像の起源と意図を知っているため、コンテンツが悪意を持って変更または使用された時期を検出できると説明しました。ディープフェイクは、多くの場合、実際のコンテンツから始まります。トレースできます。
信頼のインフラストラクチャへの監視を埋め込む
チームは、ユーザーを保護するように設計された技術も誤用される可能性があることを鋭く認識しています。または、既に脆弱な集団を新しいリスクにさらしていることを意図せずにさかのぼっています。
サーシャは、Sasha製品の独立した人権影響評価(HRIA)を実施するために、人権とデジタルテクノロジーを専門とするコンサルタント会社であるTech Regalityを引き付けるという新しいステップを踏み出しました。
この評価は、Sashaの製品が人権レンズを通じてIBAおよび個人情報の盗難を防止および対応するために果たすことができる役割の分析を任されました。潜在的な不利な人権への影響を特定し、サーシャのユーザーやサーシャの製品、特に脆弱なグループ、ジャーナリストや政治活動家の影響を受けた他のユーザーへのリスクを含む人々を防止または軽減するための推奨事項を作成する。
たとえば、国際人権法を常に遵守するとは限らない国の法律の下で、または法的根拠がないが、それでも圧力がかかっているが、圧力がかかっているが、圧力がかかっているため、政府は特定のユーザーデータの要求でサーシャにアプローチできるリスクがあります。
さらに、より多くの管轄区域(ガーナ、マレーシア、バングラデシュ、パキスタンなど)では、同性愛は犯罪化されます。これは、LGBTQ+であるサーシャユーザーが自分自身の親密な画像を共有する場合、国の法律で違法と見なされる資料の生産に関連する証拠を残す危険を冒す可能性があることを意味します。
これらの場合、サーシャテクノロジーを使用して、犯罪捜査の目的で特定のユーザーを特定できます。
このリスクに注意して、エリクソンは、「政権が私たちのところに来て、誰が抗議の写真を撮ったのか尋ねた場合、私たちは彼らに話すことができませんでした。所有者だけがそれを解き放つことができます。」
さらに、サーシャ製品は、大人のユーザーが、性的画像を含む画像を安全に共有しながら、不要な内向きの共有から保護するためにそれを手段として使用できることを意図して設計されています。
しかし、世界中の子どもたちは、一般的に「セクスティング」と呼ばれる性的イメージも共有しています。ヨーロッパの一部の国を含む多くの管轄区域では、「セクスティング」は児童の性的虐待資料の自己生産と見なされるため、犯罪化されます。これは、子どもたちがサーシャアプリを使用している場合、刑事訴訟で子供に対して使用される可能性のある証拠を作成できることを意味します。
子どもたちは、親密な画像の「安全な共有」を約束するため、アプリを使用するように奨励される可能性があります。
これに応じて、サーシャはヨーロッパのプライバシー法に沿って、16歳以上のユーザーのみが利用できるようになります。
エリクソンは、「それは厳しい決断でした。若い十代の若者たちは脆弱ですが、法的には彼らの保護者なしではそれを提供することはできません。」
「私たちは、たとえ尋ねられたとしても、16歳未満の未成年者に識別情報を提供できないようにシステムを設計しました。私たちの利用規約はそれを明確にします。害を防ぎたいと思っています。」
エリクソンは、「大規模に成功した場合、監視が必要です。EU規制当局と同様に、独立した第三者がデータの使用方法を確認できるようにシステムを設計します。画像シグネチャのデータベースを悪用または悪用してはなりません。」
デジタル証拠を正義に変えるツールの新しい波
サーシャは、害を記録するだけでなく、デジタル時代の正義、尊厳、代理店を積極的に支援するために設計された技術の成長波に加わります。
たとえば、犯罪者の識別と訴追の観点から、TraffickCamは、旅行者が滞在するホテルの部屋の写真をアップロードできるようにすることで、児童の性的虐待や人身売買と戦うのに役立つモバイルアプリです。これらの画像は、調査員が特定のホテルの場所で写真と一致させるために使用できる検索可能なデータベースを構築するのに役立ちます。
残虐行為への英国の目覚ましさは、人権擁護者、ジャーナリスト、および調査員に、戦争犯罪と人権虐待の証拠を安全に文書化および検証するツールを装備しています。 Androidアプリは、埋め込みメタデータ(GPS、時間、モーションなど)を備えた写真、ビデオ、オーディオをキャプチャし、信頼性を確保します。
すべてのファイルは暗号化され、合法的な使用に適した検証可能な監護チェーンを備えた安全なリポジトリにアップロードされます。その後、目撃者はこの資料を構造化された関係書類にまとめて、国際的な正義の取り組みを支援し、裁判所、市民社会グループ、グローバル機関と協力します。
これは、多くのインターネットの生きた現実を変えるミッション主導の企業であるサーシャの始まりに過ぎません。会社の
「正直なところ、私は本当に誇りに思っています。テクノロジーだけでなく、チームのことです。以前はGoogleの人々を含む世界最高の暗号師や透かし研究者のいくつかを紹介しました。
「私たちは、個人に力を戻すツールを作成しました。それは、責任をデジタルコンテンツに組み込みます。これにより、プライバシー、同意、および説明責任が単なる理想ではなくデフォルトであるインターネットを構築できます。」
リード画像:サーシャのCEO兼創設者であるトーマス・エリクソン。写真:クレジットされていません。