Trang chủ Thủ Thuật Deepfakes đang thúc đẩy một loại tội phạm mạng mới như thế...

Deepfakes đang thúc đẩy một loại tội phạm mạng mới như thế nào

0
44
Face of a young woman being digitally mapped

Deepfakes đang thúc đẩy một loại tội phạm mạng mới như thế nào

Face of a young woman being digitally mapped
Mihai Surdu / Shutterstock.com

Việc tạo deepfakes ngày càng dễ dàng và chúng trở nên thuyết phục hơn bao giờ hết. Tội phạm mạng đang sử dụng video và âm thanh giả mạo để tống tiền nạn nhân bằng cách thêm “tính xác thực giả” đáng tin cậy vào các trò gian lận của chúng.

Chỉnh sửa niềm tin của mọi người

Kể từ khi người đầu tiên nói “máy ảnh không bao giờ nói dối”, đã có nhiều người chứng minh điều ngược lại. Các nhiếp ảnh gia sáng tạo vào cuối thế kỷ 19 đã sử dụng các thủ thuật đơn giản để tạo ra những bức ảnh giả.

Gag “người trong chai” đã tận hưởng khoảnh khắc nổi tiếng của nó. Tự chụp ảnh trong tư thế phù hợp. Phát triển và in ảnh ở kích thước thích hợp. Cắt hình ảnh của bạn, cho vào chai thủy tinh và chụp một bức ảnh khác của bạn đang cầm chai. Này trước, bạn có một hình ảnh của chính mình đang cầm một cái chai có chứa một phiên bản thu nhỏ của chính mình.

Tất nhiên, ngày nay chúng ta có thể làm điều này bằng Photoshop hoặc GIMP. Và chúng tôi biết rằng với đủ kỹ năng và sự sáng tạo, các chuyên gia có thể tạo ra những hình ảnh trông hoàn toàn chân thực nhưng lại chứa đựng những yếu tố không thể. Nghịch lý thay, nhận thức đó có thể khiến chúng ta nghi ngờ những bức ảnh chân thực. Một hình ảnh đáng kinh ngạc mà tuyệt đối ghi lại chỉ xảy ra một lần trong đời luôn được chào đón bằng câu hỏi “Điều đó có thật không?”

Quảng cáo

Một bức ảnh chụp một người thu nhỏ trong chai rõ ràng là bị làm giả. Nhưng hãy thay đổi một bức ảnh để nó thể hiện một điều gì đó có thể là sự thật và cũng giống như thật, và một số người sẽ tin vào điều đó.

Đây không phải là về những trò đùa thị giác nữa. Đó là vũ khí hóa hình ảnh. Đó là kỹ thuật xã hội.

LIÊN QUAN: Nhiều khía cạnh của kỹ thuật xã hội

Chuyển động Hình ảnh và Bộ đàm

Ngay sau khi phim chuyển động trở thành một cảnh tượng xã hội, các nhà làm phim tiên phong đã sử dụng các hiệu ứng và thủ thuật đặc biệt để giải quyết hai vấn đề. Một người đang quay một cái gì đó thực sự có thể xảy ra nhưng không thực tế để quay, và người kia quay một cái gì đó đơn giản là không thể. Giải pháp cho vấn đề này đã khai sinh ra ngành công nghiệp hiệu ứng đặc biệt khổng lồ mà chúng ta có ngày nay.

Việc bổ sung âm thanh và lời thoại đã chứng kiến sự sụp đổ của phim câm và sự gia tăng của những người nói chuyện. Một số ngôi sao im lặng đã không thực hiện chuyển đổi. Giọng nói của họ không đúng, hoặc họ không thể truyền tải lời thoại một cách thuyết phục và đúng thời điểm. Cho đến khi lạm dụng thuốc, không có giải pháp nào khác hơn là chọn một người khác.

Ngày nay, chúng tôi cũng đang thao túng giọng nói của diễn viên. George Clooney có thực sự hát trong O Brother, Where Art Thou ? Không, đó là giọng nói của Dan Tyminski, được máy tính đồng bộ hóa với hình ảnh chuyển động của George Clooney.

Các hệ thống có thể thực hiện loại thao tác video và âm thanh này rất lớn và đắt tiền, và chúng cần các chuyên gia để điều khiển chúng. Nhưng kết quả cuối cùng thuyết phục có thể đạt được bằng cách sử dụng phần mềm dễ lấy và tương đối đơn giản sẽ chạy trên phần cứng máy tính hợp lý.

Video và âm thanh có thể không đạt chất lượng Hollywood, nhưng nó chắc chắn đủ tốt để cho phép tội phạm mạng thêm hình ảnh, video và âm thanh giả vào kho vũ khí của chúng.

Deepfakes

Thuật ngữ deepfake được đặt ra để mô tả cảnh quay kỹ thuật số được điều khiển để một người nào đó trong video mang khuôn mặt của người khác hoàn toàn. Phần “sâu” của tên bắt nguồn từ “học sâu”, một trong những lĩnh vực máy học của trí tuệ nhân tạo. Học máy sử dụng các thuật toán chuyên môn và nhiều dữ liệu để đào tạo mạng nơ-ron nhân tạo nhằm đạt được mục tiêu. Bạn càng có nhiều dữ liệu để đào tạo hệ thống, thì kết quả càng tốt.

Quảng cáo

Cung cấp cho nó đủ ảnh của một người nào đó và một hệ thống học sâu sẽ hiểu rất rõ đặc điểm sinh lý của khuôn mặt người đó để có thể tìm ra biểu cảm trông như thế nào, từ mọi góc độ. Sau đó, nó có thể tạo hình ảnh khuôn mặt của người đó phù hợp với tất cả các biểu cảm và tư thế đầu của người đó trong video.

Khi những hình ảnh đó được chèn vào video, khuôn mặt mới sẽ khớp với hành động của video một cách hoàn hảo. Bởi vì các biểu cảm khuôn mặt được tạo nhân tạo, đồng bộ hóa môi và chuyển động của đầu giống với biểu cảm của người ban đầu khi quay video thật nên kết quả có thể là giả rất thuyết phục.

LIÊN QUAN: Deepfake là gì và tôi có nên lo lắng?

Điều này đặc biệt đúng khi hai hình dạng khuôn mặt giống nhau. Một deepfake nổi tiếng vẽ bản đồ khuôn mặt của Lynda Carter lên cơ thể của Gal Gadot, kết hợp hai phiên bản của Wonder Woman. Các ví dụ nổi bật khác là Barack Obama và Tom Cruise. Bạn có thể tìm thấy chúng — và nhiều ví dụ khác — trên YouTube.

Các kỹ thuật máy học tương tự có thể được áp dụng cho âm thanh. Với đủ mẫu giọng nói, bạn có thể đào tạo mạng nơ-ron nhân tạo để tạo ra âm thanh đầu ra cao cấp sao chép giọng nói được lấy mẫu. Và bạn có thể làm cho nó nói bất cứ điều gì bạn thích. Bạn có muốn nghe Notorious BIG đọc một số nỗi kinh hoàng của HP Lovecraft’s Fieldtrich? Một lần nữa, YouTube là nơi. Trên thực tế, bạn sẽ nghe thấy điều gì đó giống như bản rap của Notorious BIG.

Quảng cáo

Ngoài những bản mash-up điên rồ và những bộ phim bom tấn mùa hè, những kỹ thuật này đang tìm thấy những ứng dụng chức năng ở những nơi khác. Mô tả là trình chỉnh sửa âm thanh và video tạo bản ghi văn bản của bản ghi âm của bạn. Chỉnh sửa tài liệu văn bản và các thay đổi được thực hiện đối với bản ghi. Nếu bạn không thích cách bạn nói điều gì đó, chỉ cần chỉnh sửa văn bản. Mô tả sẽ tổng hợp bất kỳ âm thanh nào còn thiếu từ giọng nói của chính bạn. Nó có thể tổng hợp một giọng nói chỉ từ một phút ghi âm giọng nói gốc.

Kênh truyền hình Hàn Quốc MBN đã tạo ra một sự hiểu biết sâu sắc về Kim Joo-Ha, người dẫn tin tức của họ. Nếu một câu chuyện thường do Kim Joo-Ha xử lý bị phá vỡ khi cô ấy không ở trong trường quay, thì deepfake sẽ mang đến điều đó.

LIÊN QUAN: 3 ứng dụng dễ dàng để đắm mình trong các video và GIF

Tội phạm mạng đã bắt đầu

Tội phạm mạng luôn nhanh chóng nhảy vào bất kỳ bandwagon nào mà chúng có thể sử dụng để cải thiện hoặc hiện đại hóa các cuộc tấn công của chúng. Giả mạo âm thanh đang trở nên tốt đến mức nó đòi hỏi một máy phân tích phổ để xác định rõ ràng các video giả mạo và các hệ thống AI đã được phát triển để xác định các video giả mạo. Nếu việc thao tác với hình ảnh cho phép bạn vũ khí hóa chúng, hãy tưởng tượng bạn có thể làm gì với âm thanh và video giả đủ tốt để đánh lừa hầu hết mọi người.

Tội phạm liên quan đến hình ảnh và âm thanh giả đã xảy ra. Các chuyên gia dự đoán rằng làn sóng tội phạm mạng deepfake tiếp theo sẽ liên quan đến video. Làm việc tại nhà, cuộc gọi video đầy chất “bình thường mới” có thể đã mở ra kỷ nguyên mới của tội phạm mạng deepfake.

Tấn công lừa đảo

Một cuộc tấn công email lừa đảo cũ liên quan đến việc gửi email cho nạn nhân, tuyên bố rằng bạn có một video về họ ở một vị trí dễ bị tổn thương hoặc đáng xấu hổ. Trừ khi nhận được thanh toán bằng Bitcoin, cảnh quay sẽ được gửi cho bạn bè và đồng nghiệp của họ. Sợ có thể có một video như vậy, một số người trả tiền chuộc.

Biến thể deepfake của cuộc tấn công này liên quan đến việc đính kèm một số hình ảnh vào email. Chúng được cho là những bức ảnh tĩnh bị thổi phồng từ video. Khuôn mặt của nạn nhân – chiếm gần hết khung hình – đã được chèn kỹ thuật số vào hình ảnh. Đối với những người không quen biết, họ làm cho mối đe dọa tống tiền trở nên hấp dẫn hơn.

Khi hệ thống deepfake trở nên hiệu quả hơn, chúng có thể được đào tạo với các tập dữ liệu ngày càng nhỏ hơn. Các tài khoản mạng xã hội thường có thể cung cấp đủ hình ảnh để sử dụng làm cơ sở dữ liệu học tập.

Các cuộc tấn công Vishing

Các cuộc tấn công lừa đảo qua email sử dụng nhiều kỹ thuật khác nhau để tạo ra cảm giác cấp bách để cố gắng khiến mọi người hành động một cách vội vàng hoặc chúng đánh theo mong muốn của nhân viên để được coi là hữu ích và hiệu quả. Các cuộc tấn công lừa đảo được thực hiện qua điện thoại được gọi là các cuộc tấn công trực quan. Họ sử dụng các kỹ thuật xây dựng xã hội giống nhau.

Quảng cáo

Một luật sư ở Mỹ đã nhận được một cuộc điện thoại từ con trai mình, người rõ ràng đang rất đau khổ. Anh ta nói rằng anh ta đã đâm một phụ nữ mang thai trong một vụ tai nạn ô tô và hiện đang bị tạm giữ. Anh ta nói với cha mình rằng mong đợi một cuộc gọi từ một người bảo vệ công khai để tổ chức 15.000 đô la bảo lãnh.

Cuộc gọi không phải từ con trai ông, đó là những kẻ lừa đảo sử dụng hệ thống chuyển văn bản thành giọng nói mà họ đã đào tạo bằng cách sử dụng các đoạn âm thanh của con trai ông để tạo ra một đoạn âm thanh sâu sắc. Luật sư đã không hỏi nó trong giây lát. Theo như những gì anh ta có liên quan, anh ta đang nói chuyện với con trai riêng của mình. Trong lúc chờ người bảo vệ công vụ gọi điện, ông đã dành thời gian gọi điện cho con dâu và nơi làm việc của con trai mình để báo cho họ biết về vụ tai nạn. Lời nói đến người con trai vang lên để nói với anh ta rằng đó là một trò lừa đảo.

Một giám đốc điều hành ở Anh không may mắn như vậy. Anh ta đã nhận được một email lừa đảo có chủ đích từ giám đốc điều hành của công ty mẹ của công ty tại Đức. Điều này yêu cầu một khoản thanh toán 243.000 bảng Anh (khoảng 335.000 đô la) cho một nhà cung cấp Hungary trong vòng một giờ. Ngay sau đó là một cuộc điện thoại từ giám đốc điều hành, xác nhận việc thanh toán là khẩn cấp và cần được thực hiện ngay lập tức.

Nạn nhân cho biết anh ta không chỉ nhận ra giọng nói của ông chủ và giọng Đức nhẹ mà còn nhận ra nhịp điệu và cách phát âm cẩn thận. Vì vậy, anh vui vẻ thực hiện thanh toán.

LIÊN QUAN: Audio Deepfakes: Bất cứ ai có thể biết nếu họ là giả?

Biện pháp đối phó

Mối đe dọa tiềm tàng của deepfakes đã được chính phủ Hoa Kỳ công nhận. Đạo luật cấm giả mạo sâu độc hại năm 2018 và Đạo luật xác định đầu ra của Đạo luật mạng đối thủ tạo ra hoặc Đạo luật IOGAN đã được tạo ra để phản ứng trực tiếp với các mối đe dọa do deepfakes gây ra.

Quảng cáo

Các công ty cần bổ sung các cuộc thảo luận về các trò chơi sâu vào khóa đào tạo nhận thức về an ninh mạng của họ. Đào tạo nâng cao nhận thức về mạng nên là một phần trong quá trình khởi động mới và phải được lặp lại định kỳ cho tất cả nhân viên.

Cho đến nay, các cuộc tấn công được xem là phiên bản đánh bóng của các cuộc tấn công lừa đảo trực tuyến và lừa đảo trực tuyến. Thủ tục đơn giản có thể giúp bẫy nhiều người trong số này.

  • Không có chuyển khoản tài chính nào được thực hiện chỉ khi nhận được email.
  • Một cuộc điện thoại tiếp theo nên được thực hiện từ người nhận email đến người gửi, không phải từ người gửi đến người nhận.
  • Các cụm từ thách thức có thể được kết hợp mà kẻ tấn công bên ngoài sẽ không biết.
  • Tham khảo chéo và kiểm tra kỹ mọi thứ khác thường.

How to Add Social Media Embeds To Articles In WordPress

Làm thế nào để thêm phương tiện truyền thông xã hội nhúng vào bài viết trong WordPress

How to Use ltrace to Trace Library Calls

Cách sử dụng ltrace để theo dõi cuộc gọi thư viện

What Are Git Pull Requests, And How Do You Use Them?

Yêu cầu kéo Git là gì, và bạn sử dụng chúng như thế nào?

Why Compliance Complacency is Another Form of Technical Debt

Tại sao Tuân thủ Sự tự mãn là một dạng Nợ kỹ thuật khác

What Are Git Pull Requests, And How Do You Use Them?

Tệp .gitignore là gì và bạn định cấu hình nó như thế nào?

How to Migrate Away From GitLab Managed Kubernetes Apps

Cách di chuyển khỏi ứng dụng Kubernetes được quản lý trên GitLab

Dịch từ: https://www.cloudsavvyit.com/12880/how-deepfakes-are-powering-a-new-type-of-cyber-crime/

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây