
ChatGPT bổ sung tính năng xác định vị trí từ hình ảnh: Bước tiến mới hay mối lo về quyền riêng tư?
24/04/2025 10:08
Tỷ phú Elon Musk hé lộ Chatbot AI Grok 3 "Thông minh đáng sợ" Lượt tải ứng dụng ChatGPT vượt mốc 150 triệu: Cơn sốt tính năng "Images in ChatGPT" |
Trong một bản cập nhật mới nhất, OpenAI đã tích hợp vào ChatGPT khả năng phân tích hình ảnh để suy đoán vị trí địa lý - một bước tiến gây chú ý không chỉ bởi tiềm năng ứng dụng mà còn vì những lo ngại về quyền riêng tư. Tính năng này hiện khả dụng cho người dùng ChatGPT Plus và Enterprise, hoạt động trên cả trình duyệt lẫn ứng dụng di động.
![]() |
Ảnh minh họa. |
Dựa trên sức mạnh của các mô hình thị giác máy tính trong dòng GPT-4 mới như o3 và o4-mini, ChatGPT có thể phân tích hình ảnh do người dùng cung cấp để suy luận vị trí chụp. Các yếu tố như kiến trúc, biển báo, ngôn ngữ, loại cây cối, kiểu đường xá, biển số xe hay cả phong cách thời trang - tất cả đều được hệ thống khai thác để phỏng đoán địa điểm.
Tính năng này khiến nhiều người liên tưởng đến trò chơi “GeoGuessr” nổi tiếng, nơi người chơi phải đoán vị trí địa lý dựa trên một bức ảnh từ Google Street View. Tuy nhiên, với ChatGPT, không cần bản đồ vệ tinh - chỉ một bức ảnh tải lên cũng có thể đủ để đưa ra một giả định hợp lý về nơi bức ảnh được chụp.
Khả năng xác định vị trí từ ảnh mở ra nhiều cơ hội ứng dụng trong đời sống. Các nhà báo điều tra có thể dùng tính năng này để phân tích hình ảnh từ hiện trường, các nhà hoạt động môi trường có thể xác định khu vực bị ảnh hưởng qua ảnh do người dân cung cấp, còn khách du lịch có thể dễ dàng truy tìm địa điểm trong các bức ảnh cũ mà họ không nhớ rõ.
Ngoài ra, trong lĩnh vực giáo dục, đây là công cụ thú vị để giảng dạy về địa lý, văn hóa hoặc đô thị học. Một bức ảnh đường phố có thể trở thành bài học sống động về một quốc gia, khu vực hoặc xu hướng kiến trúc.
Tuy vậy, cùng với sự ngưỡng mộ về công nghệ là làn sóng lo ngại về quyền riêng tư. Việc một AI có thể “nhìn” ảnh và đoán vị trí đi kèm nguy cơ bị lạm dụng để “doxxing” - tiết lộ thông tin cá nhân không mong muốn, hoặc truy vết vị trí của ai đó thông qua ảnh họ chia sẻ lên mạng xã hội.
OpenAI đã thừa nhận vấn đề này và cho biết đang huấn luyện mô hình để tránh nhận diện con người và không chia sẻ thông tin nhạy cảm. Ngoài ra, họ cũng khuyến nghị người dùng không tải lên ảnh cá nhân riêng tư, đồng thời đang xây dựng các lớp bảo vệ dữ liệu tốt hơn để ngăn chặn hành vi vi phạm chính sách sử dụng.
Sự phát triển của trí tuệ nhân tạo luôn đi kèm hai mặt: tiện ích và rủi ro. ChatGPT với khả năng xác định vị trí từ hình ảnh là minh chứng rõ ràng cho điều đó. Trong khi công nghệ mở ra cánh cửa đến nhiều ứng dụng hữu ích, xã hội cần sớm thảo luận về các giới hạn đạo đức, khung pháp lý và quyền riêng tư cá nhân đi kèm.
Đối với người dùng thông thường, điều quan trọng là hiểu rõ cách tính năng hoạt động, ý thức được những gì mình chia sẻ lên mạng có thể bị phân tích, và cẩn trọng với thông tin cá nhân trong mỗi bức ảnh.
P.T (t/h)


Bỏ “biên chế suốt đời” để nâng cao chất lượng nhân sự khu vực công

Tăng cường tuyên truyền, phổ biến, giáo dục pháp luật về quản lý, bảo vệ dữ liệu cá nhân

LĐLĐ quận Long Biên: Tri ân người lao động bằng những phần quà thiết thực

Kết thúc hoạt động của Viện Kiểm sát nhân dân cấp cao và cấp huyện

Thuế 20% lãi chuyển nhượng bất động sản: Cẩn trọng kẻo “siết” luôn thị trường

Danh sách 133 học sinh được miễn thi tốt nghiệp THPT năm 2025

Tàu điện lớn nhất thế giới hạ thủy: Bước ngoặt xanh cho ngành vận tải biển

Ngày mai 5/5/2025: Microsoft chính thức khai tử Skype, kết thúc một kỷ nguyên, mở ra trang mới với Teams

Apple phát cảnh báo khẩn: Người dùng iPhone tại 100 quốc gia có thể bị gián điệp tấn công

Meta phát hành ứng dụng AI độc lập, chính thức bước vào cuộc đua với ChatGPT

Google AI Overviews chạm mốc 1,5 tỷ người dùng mỗi tháng

Mua sắm trực tuyến trên ChatGPT: Bước tiến mới của thương mại điện tử?

Bạn có sẵn sàng trả giá cho sự miễn phí khi sử dụng AI?

Google cảnh báo khẩn: Lừa đảo tinh vi nhắm đến người dùng gmail

DolphinGemma - AI đầu tiên giúp con người “hiểu” được tiếng cá heo
