Thứ năm, 5/12/2019 | 21:18 GMT+7

Contact

Điện thoại:
(+84) 243 9412852

Email:
info@ndh.vn

Người Đồng Hành là Chuyên trang Thông tin Tài chính của Tạp chí điện tử Nhịp Sống Số theo Giấy phép số 197/GP-BTTTT do Bộ Thông tin và Truyền thông cấp ngày 19/04/2016. Ghi rõ nguồn “Người Đồng Hành” khi phát hành lại thông tin từ cổng thông tin này.

Condotel nhìn từ vụ Cocobay Đà Nẵng 'vỡ trận' Món Huế đóng cửa Kết quả kinh doanh quý III/2019 Cú lao dốc của FTM Căng thẳng thương mại Mỹ - Trung
Thứ bảy, 3/8/2019, 15:59 (GMT+7)

Gian nan cuộc chiến chống deepfakes

Thời Báo Kinh Tế Sài Gòn Thứ bảy, 3/8/2019, 15:59 (GMT+7)

Kể từ khi các đoạn video deepfakes (công cụ hoán đổi mặt người) xuất hiện từ cuối năm 2017, hầu hết các phương tiện truyền thông đều tập trung chỉ trích những ứng dụng của chúng. Từ nội dung khiêu dâm, ransomfakes (thông tin giả mạo mang tính lừa đảo), đến các chiến dịch bôi nhọ chống lại các chính trị gia. Không chỉ chính phủ mà nhiều tổ chức, doanh nghiệp đang chạy đua chống lại deepfake giữa nỗi lo ảnh và video làm giả, và các tin tức giả mạo có thể làm trầm trọng thêm các vấn đề đang diễn ra ở trên toàn thế giới.

Ranh giới đạo đức mong manh của việc ứng dụng AI

Mặc dù những ứng dụng với mục đích xấu của công nghệ deepfake rất đáng lo ngại, nhưng cũng có những ứng dụng tích cực của các công nghệ trên nền tảng trí tuệ nhân tạo (AI) này. Điển hình như, Lyrebird, một công ty khởi nghiệp ở Canada, đã hợp tác với nền tảng ALS trên Project Revoice, với ý tưởng sử dụng AI tạo ra để tạo ra giọng nói cho những người mắc bệnh ALS bị mất khả năng nói. Tương tự, DeepEmpathy, một dự án hợp tác của MIT và Unicef, nhằm tạo ra các hình ảnh tổng hợp cho thấy các thành phố như London và Tokyo sẽ trông như thế nào nếu chúng bị đánh bom, với mục đích khơi dậy sự đồng cảm và tinh thần phản đối chiến tranh.

ma-5968-1564821081.jpg

Gian nan cuộc chiến chống deepfakes

Những ví dụ này cho thấy, giống như hầu hết các công nghệ khác, những sản phẩm dự trên nền tảng công nghệ AI đều có các ứng dụng tích cực và tiêu cực. Tuy nhiên, ngoài những ví dụ rõ ràng mang tính trắng-đen về mặt đạo đức này, có rất nhiều ứng dụng, mang màu xám, khó có thể phân loại được. Những ví dụ mơ hồ về mặt đạo đức này tạm gọi là greyfakes.

Theo bản chất của chúng, greyfakes có thể không mang màu xám mãi mãi. Chúng có thể tiến hóa để có tác động tích cực hoặc tiêu cực, bất kể ý định đằng sau là gì. Trong khi các chính phủ và doanh nghiệp đang tích cực đấu tranh chống lại việc sử dụng tiêu cực của phương tiện tổng hợp và phát huy những điều tích cực, thì những ứng dụng màu xám lại đang âm thầm phát triển với ít sự giám sát hơn.

Một trong những ví dụ phổ biến về giải pháp công nghệ ứng dụng AI mà chúng ta biết đến là trợ lý giọng nói và các trò chơi trực tuyến công nghệ thực tế ảo tăng cường. Sự phổ biến của Amazon Alexa và Google Assistant đã khiến chúng ta quen dần với một thế giới hòa trộn giữa thật và giả. Tuy nhiên, cho đến gần đây, những giọng nói tổng hợp này không giống như người thật; chúng có vẻ quen thuộc với chúng ta nhưng rõ ràng là nhân tạo.

Công bố của Google về trợ lý cuộc gọi điện thoại kép trên nền tảng AI của mình vào năm 2018 đã thay đổi điều này. Duplex là một dịch vụ tự động có thể thay mặt người sử dụng đặt cuộc hẹn, thực hiện các cuộc gọi trực tiếp với giọng nói tổng hợp có tính thực tế cao, bắt chước các yếu tố thân mật của con người trong lời nói, bao gồm ngắt nghỉ và tín hiệu bằng lời nói như “hmmmmmm”.

Mặc dù Duplex không được thiết kế để bắt chước một giọng nói cụ thể, nhưng rõ ràng ý định của nhà phát triển là tạo ra một trợ lý giọng nói có thể có thể thay thế con người trong các tương tác điện thoại, tạo ra ảo ảnh với bên kia rằng họ đang nói chuyện với một người thực.

Mối lo lắng trước mắt là nhìn thấy những cách mà công nghệ này có thể bị ứng dụng cho những mục đích xấu như ví dụ của Naughty America, tăng lừa đảo, đánh cắp danh tính hoặc các ứng dụng độc hại khác.

Tuy nhiên, câu hỏi thực tế về greyfake là liệu Duplex và một tương lai nơi tiếng nói tổng hợp không còn có thể phân biệt được giọng nói thực hay ảo sẽ làm giảm đi các tương tác thực sự của con người. Vấn đề này đã được đề cập bởi Natasha Lomax, người đã nói về Duplex như là kết quả của sự lừa dối trên thiết kế, thiếu tính đạo đức.

Google đã đảm bảo các cuộc gọi sẽ bắt đầu bằng một thông báo rằng đó là trợ lý giọng nói tổng hợp và không có thật. Tuy nhiên, chúng ta có thể thấy việc các tương tác mật thiết nhất định của con người nên sớm được bảo vệ khỏi các giải pháp công nghệ mang tính chất "màu xám" nói trên.

Thách thức không nhỏ trong cuộc chiến chống deepfakes

Theo các chuyên gia, deepfake là vấn đề khó giải quyết do công nghệ cần để làm giả hình ảnh và video đang phát triển rất nhanh và ngày càng dễ sử dụng. Nguy cơ lan rộng khi bất kỳ ai có điện thoại thông minh (smartphone) và tài khoản mạng xã hội cũng có thể trở thành một phát thanh viên, khiến các nền tảng (platform) bối rối không biết xử lý thế nào.

Jeffrey McGregor, CEO của Truepic – startup về công nghệ xác minh hình ảnh – nhận định trong chưa đầy một năm tới, chúng ta sẽ chứng kiến các hình ảnh, video không thể phân biệt được thật - giả. Xã hội bắt đầu không tin tưởng mọi thứ họ thấy.

Truepic đang hợp tác với Qualcomm để đưa công nghệ của mình vào phần cứng điện thoại. Công nghệ sẽ tự động đánh dấu ảnh và video khi chúng được chụp và quay bằng dữ liệu thời gian, địa điểm. Nhờ đó, chúng có thể được xác minh về sau. Truepic cũng cung cấp ứng dụng miễn phí để người dùng xác minh ảnh chụp trên smartphone.

Roy Azoulay, nhà sáng lập kiêm CEO của Serelay, cho biết doanh nghiệp muốn tạo ra hệ thống tương tự hệ thống xác thực tài khoản của mạng xã hội Twitter nhưng dành cho ảnh và video. Khi ảnh và video được chụp, Serelay sẽ ghi lại dữ liệu như địa điểm, nơi gần cột tháp di động hay vệ tinh GPS. Startup này đang hợp tác với các công ty bảo hiểm để xác minh hình ảnh yêu cầu bồi thường thiệt hại.

Trong khi đó, Bộ Quốc phòng Mỹ nghiên cứu công nghệ được dùng để phát hiện ảnh và video bị làm giả. Họ tìm kiếm các điểm bất nhất trong ảnh và video làm bằng chứng, chẳng hạn ánh sáng, bóng và nhiễu ảnh.

Các chuyên gia tìm ra bằng chứng deepfake khi nhìn vào sự bất nhất giữa biểu hiện gương mặt và chuyển động đầu. Sau đó, họ tìm cách tự động hóa quy trình để thuật toán máy tính có thể phát hiện được. Phương pháp này áp dụng cho cả ảnh, video đã tồn tại hàng thập kỷ lẫn ảnh, video vừa chụp gần đây.

Những người làm ra deepfake cũng liên tục tìm cách đối phó. Một số kết hợp hai máy tính khác nhau, một để sửa ảnh, một để xác định xem nó có thể bị phân biệt với ảnh thật không.

Có thể nhận thấy, nguy cơ từ deepfake vô cùng lớn. Trong nhiều trường hợp, deepfake có thể kích động xung đột quân sự hay xáo trộn trong đời thực. Chẳng hạn, video giả mạo trong đó Jeff Bezos nói lợi nhuận Amazon giảm sẽ dẫn đến cổ phiếu rớt giá. Mạc dù vậy, các công ty mạng xã hội chưa làm hết sức trong cuộc chiến chống lại deepfake. Các nền tảng này đang bị vũ khí hóa và không còn là nguy cơ giả định.

Trong một nỗ lực chung, Ủy ban đặc biệt về tình báo của Thượng viện Mỹ vừa qua đã tổ chức phiên điều trần tập trung vào chống lại nguy cơ từ deepfake. Các đại biểu và chuyên gia gợi ý nên buộc mạng xã hội phải chịu trách nhiệm trước các nội dung giả mạo, gây hại được phát tán trên nền tảng và gắn nhãn cảnh báo đối với các video không thể xác minh.

 

Đăng nhập bằng

Hoặc nhập

Thông báo

Thông báo

Hãy chọn 1 mục trước khi biểu quyết

Thông báo