Nỗi ám ảnh mới nhất của Internet là Kate Middleton—đặc biệt liên quan đến nơi ở của cô sau cuộc phẫu thuật bất ngờ vào tháng Giêng. Bất chấp tuyên bố ban đầu rằng công chúa sẽ không tiếp tục nhiệm vụ cho đến Lễ Phục sinh, thế giới không thể ngăn mình suy đoán và đưa ra giả thuyết về sức khỏe của Kate cũng như tình trạng cuộc hôn nhân của cô với Hoàng tử William. Tất nhiên, chẳng ích gì khi những hình ảnh duy nhất được công bố về công chúa kể từ đó, có thể nói là không rõ ràng. Đã có những bức ảnh nhiễu hạt được chụp từ xa, và tất nhiên, một bức ảnh gia đình khét tiếng sau đó bị phát hiện là đã bị chỉnh sửa. (Một bài đăng trên X (trước đây là Twitter) được cho là của Kate Middleton sau đó đã được đăng, xin lỗi vì bức ảnh đã được chỉnh sửa.)
Cuối cùng, The Sun đã đăng một đoạn video ghi lại cảnh Kate và William đi dạo qua một cửa hàng nông sản vào thứ Hai, điều này đáng lẽ phải giải quyết vấn đề. Tuy nhiên, đoạn video không làm xoa dịu được những người theo thuyết âm mưu nhiệt thành nhất, những người tin rằng video có chất lượng quá thấp để xác nhận liệu người phụ nữ đang bước đi có thực sự là công chúa hay không.
Trên thực tế, một con số đã đi xa đến mức gợi ý rằng những gì chúng ta có thể thấy cho thấy điều này không phải Kate Middleton. Để chứng minh điều đó, một số người đã chuyển sang phần mềm chỉnh sửa ảnh AI để làm sắc nét các khung hình pixel của video nhằm khám phá một lần và mãi mãi những ai đang sánh bước cùng Vua nước Anh tương lai:
Tweet có thể đã bị xóa
Mọi người hiểu rồi đấy: Người phụ nữ này là không Kate Middleton. Đó là… một trong ba thứ này. Trường hợp đóng cửa! Hoặc chờ đợi, cái này thực ra là người phụ nữ trong video:
Tweet có thể đã bị xóa
Ờ, có lẽ là không. Trời ạ, những kết quả này không nhất quán chút nào.
Đó là bởi vì những chương trình “nâng cao” AI này không làm được những gì người dùng nghĩ họ đang làm. Không có kết quả nào chứng minh được người phụ nữ trong video không phải là Kate Middleton. Tất cả những gì họ chứng minh là AI không thể cho bạn biết một người được tạo pixel thực sự trông như thế nào.
Tôi không nhất thiết đổ lỗi cho bất cứ ai cho rằng AI có sức mạnh này. Rốt cuộc, chúng ta đã thấy các trình tạo hình ảnh và video AI làm được những điều phi thường trong khoảng một năm qua: Nếu thứ gì đó như Midjourney có thể hiển thị cảnh quan thực tế trong vài giây hoặc nếu Sora của OpenAI có thể tạo ra video thực tế về những chú chó con không tồn tại chơi trong tuyết, vậy thì tại sao một chương trình không thể làm sắc nét một hình ảnh mờ và cho chúng ta thấy ai thực sự đứng sau những pixel đó?
AI chỉ tốt khi thông tin nó có
Hãy xem, khi bạn yêu cầu chương trình AI “nâng cao” một bức ảnh bị mờ hoặc tạo thêm các phần của hình ảnh cho vấn đề đó, điều bạn thực sự đang làm là yêu cầu AI thêm nhiều thông tin hơn vào ảnh. Suy cho cùng, hình ảnh kỹ thuật số chỉ là 1 và 0, và để hiển thị chi tiết hơn khuôn mặt của ai đó, bạn cần thêm thông tin. Tuy nhiên, AI không thể nhìn vào một khuôn mặt mờ và thông qua sức mạnh tính toán tuyệt đối, “biết” ai thực sự ở đó. Tất cả những gì nó có thể làm là lấy thông tin đã có và đoán xem những gì thực sự nên có ở đó.
Vì vậy, trong trường hợp của video này, các chương trình AI sẽ chạy các pixel mà chúng tôi có của người phụ nữ được đề cập và dựa trên tập huấn luyện của họ, hãy thêm nhiều chi tiết hơn vào bức ảnh dựa trên nội dung của nó. nghĩ nên ở đó—không phải cái thực sự là. Đó là lý do tại sao bạn nhận được kết quả cực kỳ khác nhau mỗi lần và thường rất tệ khi khởi động. Đó chỉ là đoán thôi.
Jason Koebler của 404media đưa ra một minh chứng tuyệt vời về việc những công cụ này không hoạt động như thế nào. Koebler không chỉ thử các chương trình như Fotor hay Remini trên video của The Sun, vốn dẫn đến kết quả khủng khiếp tương tự như những chương trình khác trên mạng, mà anh ấy còn thử nó trên hình ảnh mờ của chính mình. Kết quả, như bạn có thể đoán, không chính xác. Vì vậy, rõ ràng Jason Koebler đã mất tích và một kẻ mạo danh đã đảm nhận vai trò của anh ấy tại 404media. #Koeblergate.
Hiện nay, một số chương trình AI là giỏi hơn những thứ khác, nhưng thường là trong các trường hợp sử dụng cụ thể. Một lần nữa, các chương trình này đang thêm dữ liệu dựa trên những gì họ nghĩ nên ở đó, vì vậy nó hoạt động tốt khi câu trả lời là hiển nhiên. Ví dụ: “Space Zoom” của Samsung, được công ty quảng cáo là có thể chụp ảnh Mặt trăng chất lượng cao, hóa ra lại sử dụng AI để điền vào phần còn lại của dữ liệu còn thiếu. Thiên hà của bạn sẽ chụp ảnh Mặt trăng mờ và AI sẽ điền thông tin bằng các mảnh của Mặt trăng thực.
Nhưng Mặt Trăng là một chuyện; khuôn mặt cụ thể là một khuôn mặt khác. Chắc chắn, nếu bạn có một chương trình như “KateAI”, được đào tạo chỉ dựa trên hình ảnh của Kate Middleton, thì nó có thể biến khuôn mặt của một người phụ nữ có pixel thành Kate Middleton, nhưng đó chỉ là vì nó được đào tạo để làm điều đó—và nó chắc chắn sẽ không cho bạn biết người trong ảnh có phải là Kate Middleton hay không. Hiện tại, không có chương trình AI nào có thể “thu phóng và nâng cao” để tiết lộ khuôn mặt có pixel thực sự thuộc về ai. Nếu không có đủ dữ liệu trong hình ảnh để bạn biết ai thực sự ở đó thì cũng không có đủ dữ liệu cho AI.