Mục Lục
ToggleTheo Digital Trends, sau hơn một năm chờ đợi kể từ khi xuất hiện trên máy tính, tính năng mã hóa đầu cuối (E2EE) với sức mạnh bảo mật ‘quyền lực’ nhất của Gmail đã chính thức đổ bộ lên Android và iOS. Đây được xem là ‘tấm khiên’ cuối cùng giúp bảo vệ dữ liệu nhạy cảm khỏi mọi ánh mắt tò mò.
Trong kỷ nguyên làm việc linh hoạt, hầu hết email quan trọng đều được soạn thảo và xử lý ngay trên smartphone. Tuy nhiên, suốt một thời gian dài, người dùng di động luôn phải đối mặt với rủi ro bị rò rỉ thông tin do thiếu cơ chế mã hóa chuyên sâu.
Bản cập nhật tháng 4.2026 của Google đã chính thức giải quyết triệt để vấn đề này. Với mã hóa đầu cuối (E2EE), nội dung thư sẽ được ‘xáo trộn’ ngay từ lúc gửi và chỉ có duy nhất người nhận mới có chìa khóa để giải mã. Điểm đặc biệt là quá trình này diễn ra ngay trong ứng dụng Gmail thuần túy, loại bỏ hoàn toàn sự phiền toái khi phải cài đặt thêm các phần mềm bảo mật từ bên thứ ba.
Cách thức hoạt động của tính năng này cực kỳ đơn giản nhưng hiệu quả. Khi soạn thư, người dùng chỉ cần nhấn vào biểu tượng ổ khóa và bật tùy chọn ‘Additional encryption’. Nếu người nhận không sử dụng Gmail, hệ thống sẽ gửi một liên kết bảo mật để họ đọc và trả lời thư thông qua trình duyệt web một cách an toàn. Điều này đảm bảo luồng thông tin luôn được đóng kín, ngay cả khi gửi thư ra bên ngoài hệ sinh thái của Google.
Hiện tại, Google đang ưu tiên tính năng này cho nhóm khách hàng doanh nghiệp sử dụng các gói Google Workspace Enterprise Plus. Đây là bước đi chiến lược nhằm giúp các tổ chức bảo vệ bí mật kinh doanh và tuân thủ các quy định khắt khe về an toàn thông tin, đồng thời tăng sức cạnh tranh trực tiếp với đối thủ Microsoft 365.
Dù người dùng cá nhân vẫn phải chờ thêm một thời gian nữa, nhưng động thái này cho thấy nỗ lực của Google trong việc biến Gmail thành pháo đài bảo mật hàng đầu trên di động.
Tin Gốc: https://thanhnien.vn/gmail-tung-ma-hoa-dau-cuoi-cho-ung-dung-di-dong-185260411133703199.htm
AI tái định hình mặt trận an ninh mạng toàn cầu

Nếu như trước đây, tội phạm mạng chủ yếu dựa vào kỹ năng và công cụ truyền thống, thì hiện nay sự can thiệp của AI đã làm thay đổi căn bản phương thức và bản chất của các mối đe dọa đến lĩnh vực an ninh mạng toàn cầu.
Phân tích tại hội thảo "Bảo mật trong kỷ nguyên AI - Chiến lược hình thành tương lai số" do Hiệp hội An ninh mạng quốc gia (NCA) phối hợp cùng Check Point Software Technologies tổ chức sáng 7.4 tại Hà Nội, đại tá Nguyễn Hồng Quân - Phó cục trưởng Cục An ninh mạng và Phòng, chống tội phạm sử dụng công nghệ cao (A05 - Bộ Công an), Trưởng ban An ninh dữ liệu và Bảo vệ dữ liệu cá nhân (NCA) chỉ rõ: "Không gian mạng đang trở thành 'mặt trận nóng', nơi các mối đe dọa gia tăng cả về quy mô lẫn mức độ tinh vi. Với sự hỗ trợ của AI, các cuộc tấn công mạng có thể được tự động hóa, cá nhân hóa và triển khai nhanh chóng trên diện rộng".
Thực tế tại Việt Nam, các hình thức lừa đảo tinh vi như giả mạo danh tính, sử dụng công nghệ deepfake hay phát tán mã độc có khả năng tự thích nghi để né tránh hệ thống phòng thủ đang diễn ra phức tạp. Tội phạm mạng đang chuyển dần sang mô hình có tổ chức, mang tính "công nghiệp", tận dụng AI để tối ưu hóa hiệu quả tấn công, tạo áp lực tâm lý buộc nạn nhân chuyển tiền hoặc cung cấp dữ liệu nhạy cảm.
Ở góc nhìn quốc tế, bà Ruma Balasubramanian - Chủ tịch Check Point Software Technologies khu vực châu Á - Thái Bình Dương và Nhật Bản cũng đồng tình khi nhận định: "AI đang tái định hình cả sự đổi mới trong kinh doanh lẫn các rủi ro an ninh mạng". Bà Ruma phân loại mối đe dọa đặc thù của AI hiện nay thành ba nhóm chính: rò rỉ dữ liệu, tấn công chèn lệnh (prompt injection) và can thiệp quy trình. Những rủi ro này có quy mô và tốc độ lây lan vượt xa các phương thức truyền thống như lừa đảo qua email.
Đứng trước các nguy cơ, hành lang pháp lý tại Việt Nam đang được khẩn trương hoàn thiện, tiêu biểu là luật An ninh mạng và Chiến lược AI đến năm 2030, trong đó nhấn mạnh yêu cầu an toàn, minh bạch trong toàn bộ vòng đời công nghệ.
Theo đại tá Nguyễn Hồng Quân, giải pháp cốt lõi hiện nay nằm ở hai khía cạnh: bảo mật cho AI (Security for AI) và dùng AI cho an ninh (AI for Security). AI hoạt động như một bộ não ra quyết định; nếu bị tấn công hoặc "đầu độc dữ liệu", trí tuệ nhân tạo sẽ đưa ra sai lầm nghiêm trọng. Ngược lại, chính AI với năng lực xử lý vượt trội lại là công cụ đắc lực để nhận diện sớm mô hình tấn công mạng.
Nhằm giúp các doanh nghiệp xây dựng hạ tầng AI an toàn, đại diện Check Point đã đề xuất các giải pháp kỹ thuật như mô hình "AI Factory Security Blueprint", một kiến trúc tham chiếu giúp kiểm soát rủi ro từ hạ tầng GPU đến các mô hình ngôn ngữ lớn (LLM). Đồng thời, nền tảng "AI Defense Plane" được giới thiệu nhằm cung cấp lớp phòng thủ đa tầng trước các hành vi độc hại từ AI agents và ngăn chặn rò rỉ dữ liệu, quản trị chặt chẽ các công cụ AI mà nhân viên sử dụng (tránh tình trạng Shadow AI).
Tuy nhiên, bài toán an ninh mạng không thể chỉ giải quyết bằng công nghệ đơn lẻ. Ông Nguyễn Hồng Quân nhấn mạnh: "AI không chỉ là công cụ, mà đang trở thành một yếu tố định hình lại không gian an ninh mạng và an ninh quốc gia. Việc chủ động nắm bắt, làm chủ và bảo đảm an toàn cho các công nghệ AI sẽ là yếu tố quyết định đối với sự phát triển bền vững và an toàn của mỗi quốc gia trong tương lai".
Để làm được điều đó, sự hợp tác là chìa khóa. Lãnh đạo NCA nhấn mạnh cần xây dựng hệ sinh thái an ninh mạng mở, nơi các bên cùng chia sẻ thông tin, phối hợp nghiên cứu và triển khai giải pháp công nghệ tiên tiến.
Tin Gốc: https://thanhnien.vn/ai-tai-dinh-hinh-mat-tran-an-ninh-mang-toan-cau-18526040714392901.htm
Thiết bị ‘tàng hình’ giúp sĩ quan Mỹ sống sót 48 giờ giữa lãnh thổ Iran

Theo báo New York Times, khi chiếc F-15 bị bắn rơi, viên sĩ quan hệ thống vũ khí ngồi ở ghế sau đã tiếp đất bằng dù. Sĩ quan này bị thương nhưng vẫn có thể đi lại được. Sau đó người này leo lên một sườn núi cao khoảng 2.100m trước khi ẩn náu trong một khe đá.
Trong tình huống sinh tử như vậy, bộ đồ tác chiến được trang bị trên người sĩ quan đóng vai trò then chốt, khi tích hợp sẵn thiết bị liên lạc CSEL cùng thực phẩm, nước uống, vật dụng sơ cứu và một khẩu súng ngắn.
CSEL (Combat Survivor Evader Locator - tạm dịch: Thiết bị định vị cho người sống sót và lẩn tránh trong chiến đấu) là hệ thống do Hãng Boeing phát triển.
Thiết bị nặng khoảng 800 gam, có độ bền cao, có thể hoạt động ngay cả sau khi bị ngâm nước ở độ sâu 10 mét và duy trì chế độ chờ lên đến 21 ngày.
Điểm khác biệt của CSEL so với các thiết bị liên lạc thông thường là thiết bị sử dụng tín hiệu mã hóa kết hợp công nghệ nhảy tần, giúp giảm đáng kể khả năng bị phát hiện hoặc gây nhiễu.
Ngoài ra thiết bị còn có nút khẩn cấp để phát tín hiệu không mã hóa trong tình huống nguy hiểm.
CSEL cũng được tích hợp bản đồ, dữ liệu nhiệm vụ và có thể kết nối với hệ thống vệ tinh quân sự, đảm bảo duy trì liên lạc liên tục.
Nhờ cơ chế phát tín hiệu cực ngắn và thay đổi tần số liên tục, thông tin về vị trí và tình trạng của phi công vẫn được truyền đi một cách kín đáo về trung tâm chỉ huy. Đồng thời thiết bị còn cho phép nhận lại hướng dẫn từ lực lượng giải cứu, chẳng hạn như di chuyển đến khu vực an toàn hơn trong lúc chờ giải cứu.
Trong gần 48 giờ đầy căng thẳng, phi công duy trì trạng thái ẩn mình, chỉ bật CSEL theo từng khoảng thời gian để tiết kiệm pin và hạn chế nguy cơ bị dò tìm.
Ngày 3-4, khi "hàng chục máy bay" (theo lời kể của Tổng thống Donald Trump) và hàng trăm lính đặc nhiệm, bao gồm biệt kích SEAL Team 6 (Đội 6 SEAL) của Hải quân Mỹ tiến gần, thiết bị được chuyển sang chế độ dẫn đường chính xác, giúp xác định vị trí theo thời gian thực để chiến dịch cứu hộ diễn ra thành công.
Cuộc đấu nội bộ ở OpenAI tạo nên Anthropic thế nào

CEO OpenAI Sam Altman và CEO Anthropic Dario Amodei đang đối đầu gay gắt sau khi Anthropic đánh mất hợp đồng với Bộ Quốc phòng Mỹ, còn OpenAI nhanh chóng thế chỗ. Tuy nhiên, cả hai bất đồng từ nhiều năm trước khi còn "chung chiếc thuyền" OpenAI.
WSJ đã phỏng vấn hàng chục nhân viên hiện tại cũng như cựu nhân viên của hai công ty về câu chuyện hậu trường. Theo đó, mọi thứ bắt đầu năm 2016 tại khu nhà chung trên đường Delano ở San Francisco, nơi Dario Amodei sống cùng em gái Daniela. Sau khi lấy bằng tiến sĩ vật lý sinh học, ông trở thành nhà nghiên cứu trí tuệ nhân tạo tại Google, còn Daniela cũng tốt nghiệp, nhanh chóng thăng tiến và là giám đốc trẻ tại công ty khởi nghiệp thanh toán Stripe.
Greg Brockman, lập trình viên tài năng đồng sáng lập OpenAI, là bạn của Daniela và thường xuyên lui tới nhà của hai anh em. Năm 2015, Brockman cố gắng chiêu mộ Dario Amodei vào đội ngũ sáng lập OpenAI nhưng không thành.
Holden Karnofsky, hôn phu của Daniela, cũng sống tại đó. Karnofsky là nhà sáng lập tổ chức từ thiện chuyên thúc đẩy sự an toàn AI - một trong những cộng đồng đầu tiên nghiêm túc nhìn nhận sức mạnh tiềm tàng cũng như mối nguy hiểm của trí tuệ nhân tạo. Thông qua Karnofsky, Brockman bắt đầu quan tâm đến một số ý tưởng của tổ chức này.
Một ngày đầu 2016, Brockman, Dario Amodei và Karnofsky tranh luận về cách xây dựng trí tuệ nhân tạo đúng đắn. Brockman lập luận, nếu công nghệ này thực sự thay đổi cuộc sống của mọi người một cách sâu rộng, những người tạo ra nó cần thông tin cho toàn bộ 300 triệu người Mỹ về những gì sắp xảy ra.
Dario Amodei và Holden Karnofsky lại cho rằng việc phổ biến rộng rãi dự báo lạc quan về những gì AI sắp làm được không phải là ý hay đối với công chúng. Dario Amodei lập luận rằng với những chủ đề nhạy cảm, như tốc độ phát triển của AI, tốt nhất nên thông báo trước cho chính phủ.
Sau cuộc trao đổi, Brockman nhận thấy hai người này không muốn công khai những gì đang diễn ra ở tuyến đầu của AI. Nhiều năm sau, dù Dario Amodei trở thành một trong những tiếng nói mạnh mẽ nhất cảnh báo về tác động của AI đối với xã hội, Brockman vẫn đánh giá cuộc trao đổi đã minh họa sự khác biệt cốt lõi trong triết lý của OpenAI và Anthropic.
Đến giữa 2016, ấn tượng bởi đội ngũ nhân tài của OpenAI, Dario Amodei quyết định gia nhập phòng thí nghiệm này, thức khuya cùng Brockman huấn luyện các tác nhân AI điều khiển trò chơi điện tử. Năm 2017, một trong những dự án ban đầu của cả hai là Universe nhằm mục đích huấn luyện tác nhân chơi game và sử dụng máy tính như con người, vấp phải nhiều khó khăn.
Elon Musk, nhà đồng sáng lập OpenAI, khi đó yêu cầu Brockman và nhà khoa học trưởng Ilya Sutskever lập bảng tính liệt kê mọi nhân viên và những đóng góp quan trọng của họ - động thái mang đậm phong cách của Musk mỗi khi muốn cắt giảm nhân sự. Theo một cựu nhân viên OpenAI, Dario Amodei không hài lòng khi chứng kiến đồng nghiệp bị sa thải từng người, điều ông cho là "tàn nhẫn một cách không cần thiết". Cuối cùng, khoảng 10-20% trong số 60 nhân viên OpenAI mất việc, trong đó có một người sau này đồng sáng lập Anthropic.
Mùa thu 2017, Dario Amodei tuyển một cố vấn về đạo đức và chính sách. Người này đã trình bày với ban lãnh đạo OpenAI về cách thức phòng thí nghiệm phi lợi nhuận có thể đóng vai trò là thực thể điều phối giữa các công ty AI khác và với chính phủ Mỹ nhằm thiết lập chế độ phối hợp quốc tế cho trí tuệ nhân tạo tiên tiến.
Brockman đã nhìn thấy trong bài thuyết trình ý tưởng gây quỹ: OpenAI có thể bán siêu trí tuệ, hay AGI, cho chính phủ. Khi Dario Amodei hỏi chính phủ nào, Brockman nói đó sẽ là các cường quốc hạt nhân thuộc Hội đồng Bảo an Liên Hợp Quốc để tránh gây bất ổn trật tự thế giới.
Ý tưởng được thảo luận ngắn gọn, nhưng khi đề cập việc bán AGI cho các cường quốc đối thủ như Nga và Trung Quốc, với Dario Amodei, đó không khác nào phản quốc. Ông đã cân nhắc việc từ chức.
Đầu 2018, Musk rời OpenAI do xung đột quan điểm. Theo một số email gửi lên tòa án được Business Insider thu thập, Musk yêu cầu quyền kiểm soát OpenAI và trở thành CEO, nhưng Altman không đồng ý. Thuyết phục Brockman và Sutskever ủng hộ mình nhưng không thành, Musk rời đi.
Altman bước vào vị trí lãnh đạo đang trống. Ông gặp Dario Amodei. Cả hai nhất trí rằng nhân viên của phòng thí nghiệm không còn tin tưởng vào khả năng lãnh đạo của Brockman và Sutskever nếu xét đến đợt sa thải trước đó. Amodei đồng ý ở lại với điều kiện Altman đảm bảo Brockman và Sutskever không nắm quyền. Altman đồng ý. Tuy nhiên, trong cuộc họp về cơ cấu của công ty, Brockman lại hé lộ Altman nói với ông và Sutskever rằng, công ty có thể sa thải Altman nếu làm việc không tốt.
Căng thẳng leo thang sau khi nhà nghiên cứu Alec Radford của OpenAI đặt nền móng cho mô hình ngôn ngữ lớn Generative Pre-Trained Transformer (GPT). Brockman muốn tham gia hướng nghiên cứu mới này, nhưng Dario Amodei, khi đó đã là giám đốc nghiên cứu, từ chối. Brockman tìm đến sự giúp đỡ của Altman.
Daniela Amodei lúc này đã được tuyển vào OpenAI với vai trò quản lý kỹ thuật và tuyển dụng, cùng Radford đồng lãnh đạo dự án GPT. Bà cũng cùng quan điểm với anh trai rằng Brockman không thể tham gia. Khi Altman hỏi liệu có cách nào giải quyết vấn đề không, bà tuyên bố sẽ từ chức nếu để Brockman vào đội ngũ.
Trong cuộc họp sau đó, Dario Amodei liệt kê loạt lý do Brockman không nên tham gia, gồm cả việc Radford không muốn làm việc cùng. Radford sau này cho biết ông cảm thấy như mình đang bị lợi dụng trong một cuộc chiến ủy nhiệm giữa các giám đốc cấp cao. Altman miễn cưỡng loại Brockman khỏi dự án.
Vai trò của Dario Amodei tại OpenAI tiếp tục vững chắc khi ông và nhóm ra mắt GPT-2 năm 2019 và GPT-3 năm 2020. Tuy nhiên, ông cảm thấy những đóng góp của mình không được ghi nhận xứng đáng, nghĩ rằng Altman đã đánh giá thấp vai trò của ông và khó chịu vì Brockman thường xuyên lên podcast thảo luận những vấn đề như điều lệ công ty dù đóng góp ít.
Năm 2019, Dario Amodei yêu cầu thăng chức lên phó chủ tịch nghiên cứu. Altman đồng ý, nhấn mạnh đảm bảo đãi ngộ tương tự các nhà đồng sáng lập Brockman và Sutskever. Nhưng vài tháng sau, nhóm lãnh đạo OpenAI đã xảy ra cuộc cãi vã lớn ngay tại văn phòng. Altman đã gọi Dario Amodei và Daniela Amodei vào phòng họp, chỉ trích họ âm mưu chống lại ông bằng các phản hồi tiêu cực trước hội đồng quản trị, điều mà hai anh em phủ nhận.
Đến tháng 3/2020, mối quan hệ giữa nhóm điều hành OpenAI trở nên căng thẳng. Altman yêu cầu tất cả tự đánh giá về nhau. Brockman viết một bản phản hồi dài dành cho Daniela Amodei, cáo buộc bà lạm dụng quyền lực để tạo ra các quy trình quan liêu nhằm đạt mục đích của mình.
Daniela Amodei phản hồi, bác bỏ từng luận điểm của Brockman. Cuộc tranh luận gay gắt đến mức Brockman sau đó tự đề nghị rút lại ý kiến của mình.
Cuối 2020, do đại dịch, một cuộc họp online đã diễn ra. Dario Amodei xin từ chức để thành lập công ty riêng, còn em gái đứng ra giải quyết thủ tục pháp lý. Nhận thấy tình hình căng thẳng, Altman đến nhà đề nghị ông ở lại. Dario Amodei nhấn mạnh sẽ không chấp nhận bất cứ điều gì ngoài việc báo cáo trực tiếp cho hội đồng quản trị, cũng như không thể làm việc với Brockman.
Trong những ngày cuối ở OpenAI, ông dành thời gian viết một bức thư dài, phác thảo hai loại công ty AI: công ty thị trường và công ty vì lợi ích cộng đồng, với tỷ lệ 25% và 75% tương ứng. Công ty thị trường sẽ làm cho thế giới tốt đẹp hơn bằng cách xây dựng sản phẩm mang lại lợi ích cho con người; công ty vì lợi ích cộng đồng sẽ tiến hành nghiên cứu an toàn và giải quyết các mối nguy hiểm cũng như cơ hội khác nhau của AGI.
Vài tuần sau, Dario Amodei và Daniela Amodei cùng gần 10 nhân viên khác rời OpenAI. Năm 2021, họ thành lập Anthropic vì cảm thấy công ty cũ "quá tập trung vào thương mại, lo ngại vấn đề an toàn và phong cách lãnh đạo của Altman". Theo Bloomberg, cả hai công ty hiện dẫn đầu danh sách doanh nghiệp trí tuệ nhân tạo tư nhân có giá trị nhất thế giới, với OpenAI khoảng 500 tỷ USD, còn Anthropic 380 tỷ USD.
Nhưng kể từ đó, Sam Altman và Dario Amodei gần như không còn nhìn mặt nhau và nhiều lần đấu khẩu. Cả hai thậm chí trải qua khoảnh khắc khó xử và không nắm tay nhau khi chụp ảnh chung với các nhà lãnh đạo chính trị và công nghệ tại Hội nghị thượng đỉnh về tác động AI (AI Impact Summit 2026) tại Ấn Độ đầu năm nay.
Bảo Lâm tổng hợp
Tin Gốc: https://vnexpress.net/cuoc-dau-noi-bo-o-openai-tao-nen-anthropic-the-nao-5057015.html




