AI có thể dự đoán hiệu quả của thuốc điều trị ung thư

AI có thể dự đoán hiệu quả của thuốc điều trị ung thư

(Nguồn: https://tiasang.com.vn/)

Các nhà khoa học đã tạo ra một xét nghiệm mang tính thử nghiệm có thể dự đoán những kết hợp trong sử dụng thuốc dường như hiệu quả với các bệnh nhân ung thư ít nhất từ 24 đến 48 giờ.

Kỹ thuật tiên tiến mà họ áp dụng là dùng AI để phân tích dữ liệu protein quy mô lớn từ các mẫu khối u, và có thể dự đoán được đáp ứng thuốc của bệnh nhân chính xác hơn nhiều so với những phương pháp hiện hành.

Phân tích di truyền khối u có thể tiết lộ những đột biến đang tiếp thêm nhiên liệu cho các bệnh ung thư tiến triển, một số còn có thể nhắm đích cho điều trị – nhưng chỉ một mình hệ gene không thể đem lại những dự đoán chính xác để lựa chọn các sự kết hợp thuốc.

Các nhà khoa học tại Viện nghiên cứu Ung thư London, đã thử nghiệm kỹ thuật mới trên các tế bào ung thư đơn lẻ trong phòng thí nghiệm và tế bào khối u được phân lập từ dịch phổi ở bệnh nhân mắc bệnh ung thư phổi không tế bào nhỏ.

Nghiên cứu của họ được xuất bản trên tạp chí Molecular Cancer Therapeutics, và do Viện nghiên cứu Sức khỏe quốc gia (NIHR), Quỹ Wellcome, Nghiên cứu ung thư Anh và Viện nghiên cứu ung thư (ICR) – vốn vừa là một viện nghiên cứu và cũng là một tổ chức từ thiện.

Huấn luyện các thuật toán học máy

Các nhà khoa học thực hiện các phân tích “proteomic” (hệ protein) – kiểm tra những thay đổi trong trong 52 protein quan trọng và cách chúng tương tác với nhau trong phản ứng với các điều trị thuốc. Các nhà nghiên cứu sau đó huấn luyện các thuật toán để tinh chỉnh những thay đổi của protein chủ chốt dự đoán các đáp ứng thuốc.

Đầu tiên, các nhà nghiên cứu sử dụng thuật toán dự đoán các tế bào siêu nhạy như thế nào với từng loại thuốc ung thư. Họ phát hiện ra kỹ thuật này có thể dự đoán các đáp ứng thuốc đơn lẻ chính xác hơn các đặc điểm di truyền, như các đột biến trong những gene EGFR, KRAS và PIK3CA – ba chỉ thị di truyền hiện hành được sử dụng trong các điều trị lâm sàng để dự đoán các đáp ứng thuốc trong ung thư phổi.

Sau đó các nhà nghiên cứu sử dụng cách tiếp cận tương tự để dự đoán độ nhạy với sự kết hợp thuốc – sử dụng 21 các kết hợp hai thuốc khác nhau trong các tế bào ung thư phổi với những khiếm khuyết gene khác nhau, như đột biến trong EGFR và KRAS.

Có tổng số 252 cách kết hợp thuốc, 128 cách chứng tỏ khả năng hợp lực thuốc, điều đó có nghĩa là hiệu quả kết hợp vượt quá hiệu quả của mỗi loại thuốc dùng đơn lẻ được kết hợp lại với nhau.

Trong số này, bài kiểm tra AI đã xác định chính xác năm kết hợp được xếp hạng cao nhất với 57% thời gian và 10 kết hợp được xếp hạng cao nhất với 83% thời gian.

Nhận diện được những kết hợp thành công

Bài thử nghiệm đã xác định được sự thành công của những kết hợp thuốc từng chứng tỏ hứa hẹn, ví dụ những kết hợp của trametinib và capivasertib, hoặc gefitinib và everolimus, trong các dòng tế bào ung thư phổi không tế bào nhỏ có các đột biến EGFR.

Các nhà nghiên cứu cũng có thể nhận biết được những kết hợp mới như vemurafenib và capivasertib, trong thử nghiệm cho thấy có thể có tiềm năng hiệu quả với các dòng tế bào ung thư phổi không tế bào nhỏ không có đột biến EGFR hay KRAS.

Do đó đây là thử nghiệm đầu tiên có thể đề xuất những dự đoán cá nhân hóa trong đó sự kết hợp thuốc dường như sẽ hiệu quả trong từng cá nhân người bệnh. Các nhà nghiên cứu tại ICR tin là công nghệ mới có thể đóng vai trò cốt lõi trong việc khắp phục tiến hóa của bệnh ung thư và kháng điều trị bằng việc cho phép các bác sĩ  phân tích cách thuốc phát huy tác dụng trong kết hợp thuốc.

Nghiên cứu mới mới chỉ thiết lập được khái niệm cơ bản nên việc thử nghiệm nó cần được đánh giá kỹ hơn trước khi áp dụng trên các bệnh nhân, Nghiên cứu này xem xét đến bảy loại thuốc khác nhau trong những kết hợp thuốc khác nhau nhưng các nhà nghiên cứu đang lên kế hoạch cho một nghiên cứu lớn hơn tiếp theo với dự kiến kiểm tra 15 loại thuốc và xem xét 12.000 protein tải nạp tín hiệu thay vì con số 52 như nghiên cứu này.

“Có tiềm năng để hướng dẫn bác sĩ”

Giáo sư Udai Banerji, người chuyên nghiên cứu về dược học ung thư phân tử ở Viện nghiên cứu ung thư London, và cố vấn ung thư tại Quỹ Trust Royal Marsden NHS, và là người dẫn dắt nghiên cứu, nói: “Thử nghiệm của chúng tôi đem lại chứng minh về khái niệm cho việc sử dụng AI để phân tích những thay đổi trong những dòng chảy thông tin bên trong tế bào ung thư và đem đến những dự đoán về cách các khối u phản hồi với những sự kết hợp khác nhau của thuốc điều trị”.

“Với khoảng thời gian quay vòng nhanh ít hơn hai ngày, thử nghiệm này có tiềm năng hướng dẫn các bác sĩ trong nhiệm vụ điều trị và đem lại lợi ích cho từng bệnh nhân ung thư. Đây là một bước quan trọng để hướng chúng ta vào việc sử dụng các đột biến di truyền vào dự đoán đáp ứng thuốc.

“Phát hiện của chúng tôi chứng tỏ cách tiếp cận đầy sáng tạo của chúng tôi là hiệu quả và khiến cho có được những dự đoán chính xác hơn nhiều so với các phân tích di truyền cho bệnh nhân mắc ung thư phổi không tế bào nhỏ. Trước khi đưa thử nghiệm này vào điều trị lâm sàng và hướng dẫn điều trị cá nhân hóa, chúng tôi sẽ cần những đánh giá xa hơn các phát hiện của chúng tôi, ví dụ như thực hiện một nghiên cứu trên những bệnh nhân sẽ có điều trị để kiểm tra xem các dự đoán này chính xác đến đâu”.

“Sự kết hợp các liệu pháp vượt qua khả năng kháng thuốc”

Giáo sư Kristian Helin, giám đốc điều hành Viện nghiên cứu Ung thư London thì cho rằng “Một trong những thách thức lớn nhất mà chúng tôi phải đối mặt trong nghiên cứu ung thư và điều trị ung thư là năng lực đáp ứng, sự tiến hóa và kháng thuốc của bệnh ung thư. Do đó chúng tôi mong đợi tương lai của điều trị ung thư sẽ là sự kết hợp giữa các liệu pháp có thể vượt qua sự kháng thuốc – nhưng chúng tôi cần hiểu biết sâu hơn về những cách kết hợp thuốc sẽ hoạt động hiệu quả như thế nào với những người bệnh khác nhau.

“Nghiên cứu mới này là một ví dụ lớn về sự hợp tác liên ngành, trong sự tích hợp hiểu biết của chúng ta về sinh học ung thư, AI và thuốc điều trị lâm sàng để đem lại sự chứng minh khái niệm cho một thử nghiệm mới có thể dự đoán được những điều trị kết hợp thuốc có thể đem lại hiệu quả cho bệnh nhân. Nó cho thấy quyền lực tiềm năng của AI và phân tích protein với điều trị cá thể hóa và có thể là một bước đi quan trọng trong việc giúp chúng ta giải quyết được sự kháng thuốc – hi vọng là sẽ giúp chúng ta đem lại cho các bệnh nhân những đề xuất điều trị cá nhân hơn và thông minh hơn”.

Anh Vũ tổng hợp

Nguồnhttps://www.bloomberg.com/news/articles/2022-04-03/test-could-predict-effective-cancer-drug-combinations-in-less-than-two-days

https://medicalxpress.com/news/2022-04-ai-effective-cancer-drug-combinations.html

Con chip thay đổi thế giới

Con chip thay đổi thế giới

(Nguồn: https://congnghe.tuoitre.vn/)

Chip là phát minh vĩ đại nhất kể từ khi con người biết dùng lửa và đi đường ống nước trong nhà.

Chip bán dẫn, còn gọi là mạch tích hợp (integrated circuit), là một trong những phát minh quan trọng nhất của thế kỷ 20. 

The New York Times ví sự thay đổi mà nó mang lại cho thế giới tương đương một cuộc cách mạng công nghiệp, góp công đầu tiên và lớn nhất trong việc mở ra thời đại kỹ thuật số.

Hàng tỉ con chip đang làm việc không mệt mỏi bên trong hầu như tất cả những thứ mà ta nhìn thấy hằng ngày, từ phức tạp như máy bay đến giản đơn như chiếc máy in văn phòng.

Danh sách những thứ có “bộ não” là chip ngày nay tất nhiên đã dài ra hơn rất nhiều.

Con chip thay đổi thế giới - Ảnh 1.
Con chip thay đổi thế giới - Ảnh 2.

Vào thời điểm kỹ sư Jack Kilby phát minh ra mạch tích hợp tại Công ty Texas Instruments ngày 12-9-1958, các thiết bị điện tử vẫn chủ yếu dựa vào công nghệ ống chân không được phát minh từ khoảng một thập niên trước đó. Đỉnh cao của công nghệ bóng chân không là chiếc máy tính kỹ thuật số đầu tiên ENIAC – được chế tạo vào năm 1946.

ENIAC là một cỗ máy khổng lồ nặng hơn 30 tấn, cao hơn 3 mét và chứa khoảng 100.000 bộ phận, trong đó có 18.000 bóng chân không. Nó tiêu thụ lượng điện năng khổng lồ lên đến 200kWh – người ta truyền tai nhau rằng khi ENIAC khởi động, tất cả bóng đèn ở bờ tây thành phố Philadelphia đều trở nên leo lét. Một nhược điểm lớn của thiết bị này là cứ vài ngày lại có một bóng đèn bị hỏng và phải thay, khiến chi phí vận hành trở nên vô cùng tốn kém.

Con chip thay đổi thế giới - Ảnh 3.

Con tem do Marshall Islands phát hành với chân dung kỹ sư Jack Kilby và mạch tích hợp đầu tiên do ông sáng chế.

Đến giữa những năm 1950, các nhà khoa học tại phòng thí nghiệm Bell Labs của Công ty viễn thông AT&T nhận thấy khuyết điểm quá lớn đó của bóng chân không và thành lập một nhóm nghiên cứu để tìm kiếm công nghệ thay thế.

Mục tiêu là tạo ra một linh kiện với chức năng tương tự nhưng không phụ thuộc môi trường chân không, không cần dây tóc và không có bộ phận chuyển động.

Nhóm nghiên cứu đánh cược hy vọng của họ vào chất bán dẫn – một loại vật liệu còn mới mẻ ở thời điểm đó mà các tính chất vật lý của chúng chỉ mới bắt đầu được giới khoa học hiểu rõ hơn.

Transistor ra đời và cải thiện đáng kể năng lượng cần thiết để vận hành các mạch điện tử, nhưng một bảng mạch vẫn phải được tạo thành từ các transistor riêng lẻ cùng các thành phần như điện trở và tụ điện được nối với nhau bằng dây dẫn và hợp kim hàn. Một liên kết duy nhất bị lỗi cũng đồng nghĩa cả mạch không thể hoạt động.

Con chip thay đổi thế giới - Ảnh 4.

Trong khi hầu hết đồng nghiệp tại Texas Instruments đi nghỉ mát vào mùa hè năm 1958, Kilby ở lại phòng lab để tìm hướng hiện thực hóa ý tưởng của mình: ông tìm cách kết hợp một bóng bán dẫn, tụ điện và 3 điện trở trên một khối duy nhất làm bằng germani.

Ngày 12-9, ông giới thiệu với cấp trên mô hình “mạch tích hợp” đầu tiên – dài hơn 1cm và còn rất thô sơ với các thành phần lởm chởm trông như những con côn trùng được dán lên một tấm kính. Mô hình này hoạt động hoàn hảo.

Sáu tháng sau tại California, một kỹ sư người Mỹ khác là Robert Noyce cũng độc lập công bố ý tưởng chế tạo mạch tích hợp. Noyce sử dụng thủy tinh làm vật liệu cách điện và dùng nhôm kết nối các transistor làm bằng silicon. Chip của Noyce phù hợp hơn cho sản xuất số lượng lớn.

Con chip thay đổi thế giới - Ảnh 5.

Jack Kilby kiểm tra một tấm wafer 300mm – Ảnh Texas Instruments

Với sáng chế của mình, không lâu sau ông trở thành người đồng sáng lập Tập đoàn Intel – ngày nay là một trong những nhà sản xuất chip bán dẫn hàng đầu thế giới. “Kilby là người tạo ra con chip đầu tiên, nhưng hướng tiếp cận của Noyce cho thế giới thấy cách ứng dụng nó vào thực tiễn” – người đồng sáng lập Intel Gordon Moore trả lời Hãng thông tấn AP.

Con chip thay đổi thế giới - Ảnh 6.

Một cuộc cách mạng bắt đầu. Máy tính sử dụng chip bán dẫn đầu tiên trên thế giới thuộc sở hữu của Không quân Hoa Kỳ, được chế tạo vào năm 1961.

Tiềm năng của mạch tích hợp được cụ thể hóa khi Texas Instruments công bố chiếc máy tính toán bỏ túi Cal Tech vào năm 1967, phá vỡ định kiến trước đây về những thiết bị cồng kềnh cần cắm điện mới hoạt động được.

Cal Tech đủ nhỏ để cầm gọn trong lòng bàn tay, có một con chip bên trong và chỉ cần pin để cung cấp năng lượng.

Từ đó về sau là giai đoạn phát triển thần tốc của kỹ thuật số. Cơ quan Hàng không vũ trụ Hoa Kỳ (NASA) sử dụng chip trong các tên lửa Apollo thực thi sứ mệnh đưa con người lên Mặt trăng, và các công ty sản xuất máy tính cũng sớm nhảy vào cuộc chơi chip bán dẫn.

Con chip thay đổi thế giới - Ảnh 7.

Số lượng transitor trên vi mạch qua các thời kỳ. Ảnh: computerhistory.org

Định luật Moore nổi tiếng phát biểu rằng sức mạnh xử lý của một con chip sẽ tăng gấp đôi sau mỗi 2 năm, trong khi giá thành giảm một nửa.

Dự đoán được người đồng sáng lập Intel Gordon Moore đưa ra năm 1960 đã giữ nguyên tính đúng đắn trong hơn nửa thế kỷ, dù tốc độ phát triển của chip đã có phần chững lại trong những năm gần đây.

Năm 1969, một con chip được bán với giá tính trên mỗi bit là 1 USD. Ngày nay, chiếc điện thoại iPhone sử dụng chip với khả năng xử lý gấp hàng tỉ lần chỉ có giá vài picocent (1 picocent = 0,000000000001 cent) trên mỗi bit.

Con chip thay đổi thế giới - Ảnh 8.

“Nếu ngành công nghiệp ôtô cũng phát triển nhanh chóng như ngành công nghiệp bán dẫn, một chiếc Rolls Royce sẽ đi được nửa triệu dặm (gần 805.000km) chỉ với một gallon (hơn 4,5 lít) nhiên liệu, và đi đến đâu bỏ xe luôn ở đấy sẽ còn rẻ hơn chi phí đỗ xe” – Moore từng có lần ví von, theo The New York Times.

Cây bút Andy Kessler của tờ Wall Street Journal gọi chip bán dẫn là “phát minh vĩ đại nhất kể từ khi con người biết dùng lửa và đi đường ống nước trong nhà”. “Ta sẽ không thể nhận ra thế giới này nếu không có chip bán dẫn. Chúng bẻ cong đường đi của lịch sử, ảnh hưởng đến kinh tế, chính phủ và sự hưng thịnh của loài người nói chung” – Kessler viết.

Thật vậy, năng suất được giải phóng từ sức mạnh tính toán của những con chip làm từ silicon đã biến đổi mọi thứ trên đường đi của nó: bán lẻ, âm nhạc, tài chính, quảng cáo, du lịch, sản xuất, chăm sóc sức khỏe, năng lượng… “Thật khó tìm ra một thứ gì không bị phát minh của Kilby làm cho thay đổi” – Kessler nhận xét.

Con chip thay đổi thế giới - Ảnh 9.

Jack Kilby tại phòng nghiên cứu của ông – Ảnh Texas Instruments

Con chip thay đổi thế giới - Ảnh 10.

Thuật ngữ “vật liệu bán dẫn” dùng để chỉ một vật liệu – chẳng hạn silicon – có thể dẫn điện tốt hơn so với chất cách điện như thủy tinh nhưng lại không tốt bằng các chất dẫn điện như đồng hoặc nhôm. Chip chính là ứng dụng phổ biến nhất của vật liệu bán dẫn.

Chip bán dẫn thường được làm từ các lát silicon mỏng và sử dụng các transistor như “công tắc” để kiểm soát dòng điện.

Nhờ chip bán dẫn mà các thiết bị điện tử có thể xử lý, lưu trữ và tiếp nhận thông tin: chip bộ nhớ lưu trữ dữ liệu và phần mềm dưới dạng mã nhị phân, chip kỹ thuật số thao tác với dữ liệu dựa trên chỉ dẫn từ phần mềm điều khiển, còn chip không dây nhận dữ liệu từ máy phát vô tuyến tần số cao rồi chuyển đổi chúng thành tín hiệu điện.

Tựu trung chúng đều hoạt động bằng cách “bật” hoặc “tắt” các transistor điều khiển dòng điện.

Con chip thay đổi thế giới - Ảnh 11.

Kỹ sư thao tác với tấm wafer – Ảnh Taiwan Semiconductor Manufacturing Co Ltd

Để tạo ra một con chip bán dẫn, người ta bắt đầu với một lát mỏng silicon được gọi là wafer có kích thước khoảng bằng chiếc đĩa ăn. Nhà sản xuất thêm các nguyên tố như phôtpho và bor vào một lớp mỏng trên bề mặt silicon để tăng độ dẫn điện của chip.

Chính trong lớp phủ bề mặt này là nơi các transistor được tạo thành bằng cách lần lượt thêm các lớp mỏng kim loại dẫn điện, chất cách điện và nhiều silicon hơn, sau đó loại bỏ các lớp này một cách có chọn lọc bằng plasma.

Quy trình này tương tự như đắp tất cả nguyên liệu thành một khối thô rồi đẽo gọt các chi tiết cho ra tác phẩm điêu khắc hoàn chỉnh – việc này dễ hơn là cố gắng vẽ các chi tiết có kích thước siêu nhỏ trực tiếp lên chip. Bằng cách này, các nhà sản xuất chip bán dẫn có thể tạo ra những con chip chứa hàng chục tỉ transistor trên mỗi inch vuông.

Công nghệ sản xuất chip ngày nay đã tiến bộ nhiều so với nguyên mẫu thô sơ của Kilby, nhưng quan trọng nhất có lẽ là sự gia tăng theo cấp số nhân số lượng transistor có trên mỗi con chip. Ứng dụng thương mại sớm nhất của chip bán dẫn là máy tính toán bỏ túi được phổ biến rộng rãi vào những năm 1970.

Con chip thay đổi thế giới - Ảnh 12.
Con chip thay đổi thế giới - Ảnh 13.

Những năm gần đây, giới công nghệ nói nhiều về sự lỗi thời của định luật Moore khi việc tiếp tục thu nhỏ kích thước transistor dường như là nhiệm vụ bất khả thi do các giới hạn của vật lý.

Intel và Samsung đang sản xuất chip chứa các thành phần kích thước chỉ 7 nanomet, trong khi bán kính nguyên tử silicon là 0,2 nanomet. Kích thước nguyên tử và tốc độ ánh sáng là hai giới hạn cứng mà con người dù ao ước vẫn chưa thể vượt qua được.

Con chip thay đổi thế giới - Ảnh 14.

GH100, dòng chip chuyên cho các trung tâm dữ liệu của NVIDIA, có 80 tỉ transistor. Ảnh: NVIDIA

Một giải pháp là thay thế các lớp phẳng 2D bằng công nghệ 3D với thiết kế hình vây cá giúp tăng số lượng transistor có thể nhét vừa trên một con chip, nhưng cấu trúc này khó sản xuất hơn rất nhiều so với chip truyền thống.

Một hy vọng khác là điện toán lượng tử không bị giới hạn bởi bit nhị phân (0 và 1), mà thay vào đó sử dụng bit lượng tử (qubit) dựa trên lý thuyết cơ học lượng tử của Schrödinger.

Máy tính lượng tử hoạt động rất nhanh nhưng chỉ có thể vận hành ở nhiệt độ xấp xỉ 0oK (khoảng – 273oC), không khả dĩ để ứng dụng thực tiễn trong các thiết bị hằng ngày như điện thoại thông minh hay tivi. Điện toán sinh học là một lĩnh vực hấp dẫn khác, với một số nghiên cứu đang tìm hướng tạo ra chip có khả năng mô phỏng cách ADN lưu trữ thông tin.

Dù là cách nào đi nữa thì nhân loại cũng đang rất cần một chất xúc tác mới cho cuộc cách mạng công nghệ tiếp theo. “Hãy cùng hy vọng truyền nhân của Jack Kilby đã bỏ qua kỳ nghỉ hè lần này” – Kessler viết dí dỏm.

Con chip thay đổi thế giới - Ảnh 15.
Con chip thay đổi thế giới - Ảnh 16.

Mặc dù công nghệ bán dẫn được sinh ra ở Mỹ, thậm chí còn được dùng để đặt tên Thung lũng Silicon trứ danh, ngày nay không có con chip siêu hiện đại nào được sản xuất trên đất Mỹ. Châu Á đã vươn lên thống trị lĩnh vực sản xuất chip thế nào, và nước Mỹ liệu có thể đưa ngành công nghiệp này hồi cố hương?

Ngày 9-8, Tổng thống Mỹ Joe Biden ký ban hành Đạo luật chip và khoa học (CHIPS Act), bao gồm một gói trợ cấp khổng lồ 280 tỉ USD dành cho sản xuất công nghệ cao và nghiên cứu khoa học; trong số này, có 52 tỉ USD dành riêng cho ngành chip nội địa.

Đạo luật mới, được cả lưỡng đảng ủng hộ, được thông qua nhằm đưa việc sản xuất chip – vật liệu tối quan trọng trong cuộc sống hiện đại – trở lại Mỹ, từ đó giảm phụ thuộc vào các nhà sản xuất châu Á. Nhưng việc sản xuất chip đã rời khỏi nơi nó được sinh ra từ khi nào và tại sao?

Con chip thay đổi thế giới - Ảnh 17.

Năm 1990, Mỹ chiếm 37% nguồn cung chip toàn cầu, song con số hiện nay chỉ là 12%. 75% sản lượng chip thế giới đến từ châu Á – Nhật, Hàn Quốc, Đài Loan và Trung Quốc đại lục, theo một báo cáo hồi tháng 9-2020 của Hiệp hội Công nghiệp bán dẫn Mỹ.

Các công ty trong ngành công nghiệp bán dẫn có thể chia làm hai nhóm chính: (1) các IDM (nhà sản xuất thiết bị tích hợp) tự thiết kế và tự sản xuất chip; (2) các công ty fabless, chỉ thiết kế, phần sản xuất sẽ thuê ngoài. Các công ty chuyên sản xuất chip cho các công ty fabless gọi là foundry. TSMC (Đài Loan) và Samsung Electronics (Hàn Quốc) là hai foundry lớn nhất thế giới.

Theo CNBC, Mỹ tụt lại phía sau là vì thay đổi lớn trong ngành công nghiệp bán dẫn có sự thay đổi lớn: trong 15 năm trở lại đây, các công ty bắt đầu chuyển sang mô hình fabless – chỉ thiết kế và gửi cho các foundry làm giúp.

Con chip thay đổi thế giới - Ảnh 18.

Bên trong nhà máy TSMC. Ảnh Taiwan Semiconductor Manufacturing Co Ltd

Nhiều công ty lớn của Mỹ ký hợp đồng với các nhà sản xuất châu Á vì chi phí vẫn rẻ hơn sản xuất trong nước. Intel, công ty chip lớn nhất Mỹ tính theo doanh số, là IDM điển hình hiếm hoi của Mỹ, khi sản xuất nội địa là chủ yếu, mặc dù cũng có nhà máy ở Ireland, Israel và cả Trung Quốc.

Ngược lại, sản phẩm cuối cùng của các công ty lớn khác như Nvidia (trụ sở Santa Clara, California), nhà sản xuất chip có giá trị thị trường lớn nhất Mỹ, chủ yếu đến từ các nhà máy ở nước ngoài.

Một foundry cần phải đầu tư hàng chục tỉ đôla Mỹ để xây dựng nhà máy và trang bị công nghệ cực kỳ đắt đỏ để sản xuất chip thuộc thế hệ kế tiếp.

“Năm 2001, có 30 nhà sản xuất cạnh tranh nhau trong nhóm dẫn đầu, nhưng khi việc làm chip ngày càng khó và tốn kém thì con số này giảm xuống chỉ còn 3 công ty (TSMC, Intel và Samsung)” – CNBC dẫn một báo cáo tháng 12-2021 của Ngân hàng Hoa Kỳ.

TSMC hiện là foundry nắm 55% thị phần toàn cầu, còn Samsung chiếm 18%, theo dữ liệu của Hãng Trendforce. Vì sao hai cái tên châu Á này lại nổi lên dẫn đầu? Trong bài “Vì sao ngày càng có ít chip “sản xuất tại Mỹ”” hồi tháng 11-2020, tờ Wall Street Journal cho biết:

Các chính phủ châu Á có nhiều ưu đãi tài chính để xây dựng ngành công nghiệp sản xuất chip nội địa, và ngoài ra, “các công ty chip cũng bị thu hút bởi mạng lưới các nhà cung cấp ngày càng lớn mạnh bên ngoài nước Mỹ, và một lực lượng lao động ngày càng phát triển gồm các kỹ sư lành nghề có thể vận hành máy móc đắt đỏ”.

Neil Campling, trưởng bộ phận nghiên cứu công nghệ hãng quản lý đầu tư Mirabaud Securities, tán thành các quan điểm này khi trả lời CNBC: “Đài Loan và Hàn Quốc đã dẫn đầu trong việc sản xuất linh kiện bán dẫn – vốn đòi hỏi đầu tư vốn khổng lồ, và một phần thành công của họ trong hơn 20 năm qua là các chính sách hỗ trợ của chính quyền và khả năng tiếp cận lực lượng lao động có nghề”.

Hỗ trợ về mặt chính sách lẫn tài chính từ chính phủ rõ ràng là cái nhiều cường quốc chip châu Á có mà Mỹ không có, cho đến khi Đạo luật chip và khoa học ra đời. CHIPS Act được kỳ vọng sẽ giải quyết được vấn đề đầu tiên – tiền đâu.

Theo Wall Street Journal, để xây dựng và vận hành một nhà máy chip vào loại hiện đại nhất – sản xuất chip để làm bộ vi xử lý cho máy tính – trong vòng 10 năm, cần hơn 30 tỉ USD.

Con chip thay đổi thế giới - Ảnh 19.
Con chip thay đổi thế giới - Ảnh 20.

Trong lịch sử, Mỹ không có chính sách khuyến khích cấp liên bang nào cho việc sản xuất chip, mặc dù một số bang có các hỗ trợ khác nhau cho việc xây nhà máy, chẳng hạn trợ cấp đất đai hoặc giảm thuế.

Giờ thì đạo luật mới sẽ giúp việc đầu tư hấp dẫn hơn, khi dành ra đến 39 tỉ USD để hỗ trợ tài chính trực tiếp cho các công ty xây nhà máy sản xuất chip trong nước. Một gói ngân sách 11 tỉ USD khác được dành cho việc thúc đẩy nghiên cứu sản xuất chip và đào tạo nhân lực. Bộ Thương mại sẽ phụ trách xét duyệt và phân bổ các khoản tiền này.

Về lý thuyết, hỗ trợ vốn từ chính phủ sẽ giúp giảm chi phí của việc làm chip ở Mỹ so với châu Á. Trước mắt, một số dự án ở Mỹ có thể tranh thủ được nguồn hỗ trợ này, chẳng hạn dự án nhà máy TSMC ở bang Arizona – cơ sở sản xuất chip tối tân đầu tiên ở nước ngoài của công ty Đài Loan này.

Con chip thay đổi thế giới - Ảnh 21.

Cơ sở ở thành phố Chandler (bang Arizona, Mỹ) của Intel, nơi dự kiến có thể xây được tới 6 nhà máy fab đến năm 2024. Ảnh Intel

Bản thân Intel cũng đã công bố kế hoạch xây nhà máy nghiên cứu, phát triển và sản xuất chip trị giá 20 tỉ USD ở bang Ohio. Tổng đầu tư cho nhà máy này có thể lên đến 100 tỉ USD, biến nó thành nơi sản xuất silicon lớn nhất hành tinh, theo lời Tổng thống Biden và CEO Intel Pat Gelsinger tuyên bố hồi tháng 1-2022.

Nhiều người trong ngành đã bày tỏ hào hứng và kỳ vọng trước đạo luật mới. Maryam Rofougaran, CEO của start-up công nghệ 5G Movandi, cho biết đạo luật sẽ là nguồn cấp vốn bền vững và tin cậy cho các công ty như Movandi và “thúc đẩy vượt qua các giới hạn và tạo ra công nghệ của tương lai”.

Nhưng cũng có người cho rằng phải tỉnh táo nhìn nhận rằng thật ra phía trước vẫn là chặng đường dài để Mỹ có thể cạnh tranh với các nhà sản xuất chip châu Á.

Theo CNBC, lý do là vì không phải lãnh đạo doanh nghiệp nào cũng quan tâm các con chip tối tân sản xuất ở đâu mà điều quan trọng với họ là nguồn cung phải ổn định.

“Các công ty cần mua chip đang tuyệt vọng tìm nhà sản xuất khác ngoài Đài Loan, và họ sẽ rất vui nếu nguồn cung đến từ chính nước Mỹ, nhưng ai cũng biết đây là cuộc chơi nhiều năm. Nguồn cung ổn định là điều quan trọng nhất” – Mike Jette, phó chủ tịch phụ trách công nghệ của hãng tư vấn và cung cấp phần mềm GEP, nói với CNBC.

Con chip thay đổi thế giới - Ảnh 22.

Đó là chưa kể các quy định đầu tư, chi phí lao động và những rào cản khác phổ biến trong ngành sản xuất của Mỹ. Phải còn rất lâu nữa Apple và các công ty Mỹ khác mới có thể đưa chip “nhà làm” vào sản phẩm của mình.

Theo Jason Hsu, cựu nghị viên Đài Loan, hiện là học giả nghiên cứu cao cấp tại Harvard Kennedy School, điều quan trọng sắp tới với Mỹ và cả châu Âu là liệu họ có thể giảm chi phí xuống ngang bằng châu Á hay không, cũng như đảm bảo được nguồn cung nhân tài và hệ sinh thái tích hợp liên tục hay không.

Đây đều là những yếu tố làm nên sức mạnh của ngành bán dẫn Đài Loan. “Đưa sản xuất chip trở lại quê nhà không phải là thành công có được sau một đêm với Mỹ” – Hsu nói với trang Grid News.

Con chip thay đổi thế giới - Ảnh 23.

Các bản tin về CHIPS Act đều nêu việc thông qua đạo luật này là để “tăng tính cạnh tranh của Mỹ so với Trung Quốc” trong lĩnh vực sản xuất chip. Cần phải nói ngay, hiện Trung Quốc đang không thống lĩnh thị trường chip toàn cầu, nhưng các nhà lập pháp Mỹ ngày càng lo ngại trước các bước tiến gần đây của nước này.

Lo là có cơ sở, bởi Trung Quốc có vẻ vẫn đạt tiến bộ mới trong công nghệ bán dẫn, bất chấp các lệnh trừng phạt liên quan đến ngành chip của Mỹ.

Tháng 7 vừa qua, hãng phân tích TechInsights cho biết SMIC, nhà sản xuất chip lớn nhất Trung Quốc, có thể đã chế tạo được chip 7nm, so với năng lực trước đó chỉ dừng lại ở quy trình 14nm.

Điều bất ngờ là SMIC đã nâng cao năng lực sản xuất ngay cả khi không có thiết bị quang khắc tối tân vì bị Mỹ trừng phạt. Từ cuối năm 2020, Mỹ đã cấm các công ty trong nước không được bán thiết bị có thể làm chip 10nm hoặc tân tiến hơn cho SMIC.

Con chip thay đổi thế giới - Ảnh 24.

Từ năm 2014, Chính phủ Trung Quốc đã xác định sẽ ưu tiên việc thúc đẩy sản lượng chip trong nước. Hiệp hội Công nghiệp bán dẫn Mỹ ước tính Trung Quốc sẽ chi tổng cộng 150 tỉ USD cho mục tiêu này trong giai đoạn 2014 – 2030.

Gói ngân sách “Big Fund” của Bắc Kinh cùng với các khoản hỗ trợ địa phương khác dành cho ngành này đã giải ngân khoảng 73 tỉ USD tính đến năm 2021, theo Grid News. Tuy nhiên, tính đến 10-8, có ít nhất 5 lãnh đạo các công ty chip đang bị điều tra tham nhũng liên quan đến Big Fund, theo South China Morning Post.

Sau chuyến công du ngắn ngủi đến Đài Loan của Chủ tịch Hạ viện Mỹ Nancy Pelosi đầu tháng 8, trong đó có việc đến thăm TSMC, chuyện “chọn phe” giữa Mỹ và Trung Quốc của các nhà sản xuất chip trở thành chủ đề nóng.

Theo Jon Bathgate, nhà đầu tư tại hãng quản lý đầu tư chuyên về vật liệu bán dẫn NZS Capital, các công ty chip lớn nhất thế giới của Đài Loan và cả Hàn Quốc có nhiều lý do để nghiêng về Mỹ hơn.

Dù Hoa Kỳ thua kém châu Á trong khoản sản xuất chip, nước này vẫn dẫn đầu toàn cầu về thiết kế chip hiện đại và cung ứng phần mềm, thiết bị sản xuất. Theo hãng tư vấn Boston Consulting Group, Mỹ nắm 80% thiết bị thiết kế và 50% thiết bị sản xuất chip toàn cầu, trên 50% sở hữu trí tuệ về thiết kế chip.

Các đại gia chip ở châu Á vì thế vẫn phải phụ thuộc vào thiết kế và phần cứng của Mỹ. “Điều này mang lại lợi thế lớn cho Mỹ so với Trung Quốc khi kêu gọi đầu tư và thiết lập quan hệ đối tác” – Bathgate nói với tạp chí Fortune.

Con chip thay đổi thế giới - Ảnh 25.

TSMC vốn luôn tránh phải chọn giữa Mỹ và Trung Quốc – hai nền kinh tế cực kỳ quan trọng đến chuyện kinh doanh của mình.

Nhưng sự chằng chịt của bức tranh chip toàn cầu khiến tương lai của cuộc chiến bán dẫn vẫn là khó đoán. Trung Quốc vẫn là nhà nhập khẩu chip lớn nhất thế giới và cũng mua thiết bị sản xuất chip nhiều nhất.

Các doanh nghiệp sẽ phải tốn thêm nhiều chi phí và hoạt động sản xuất bị gián đoạn nếu cắt đứt quan hệ với Trung Quốc, và vì thế “đa số các công ty sẽ không sẵn sàng xem xét việc ngưng làm ăn với Trung Quốc hoàn toàn” – Paul Rosenzweig, CEO hãng tư vấn Red Branch Consulting, nói với Fortune.

Federated Learning là gì

Federated Learning là gì

(Nguồn: https://www.thegioimaychu.vn/blog)

Một trong những thách thức bao trùm của kỷ nguyên kỹ thuật số là quyền riêng tư của dữ liệu. Vì dữ liệu là mạch máu của trí tuệ nhân tạo hiện đại, các vấn đề về quyền riêng tư của dữ liệu đóng một vai trò quan trọng (và thường là giới hạn) trong quỹ đạo của AI. Trí tuệ nhân tạo bảo vệ quyền riêng tư – các phương pháp cho phép các mô hình AI học hỏi từ bộ dữ liệu mà không ảnh hưởng đến quyền riêng tư của chúng – do đó nó ngày càng trở thành mục tiêu theo đuổi quan trọng. Có lẽ cách tiếp cận hứa hẹn nhất để bảo vệ quyền riêng tư của AI là giải háp học liên kết hay Federated Learning.

Khái niệm về học liên kết lần đầu tiên được các nhà nghiên cứu tại Google đưa ra vào đầu năm 2017. Trong năm qua, mối quan tâm đến học liên kết đã bùng nổ: hơn 1.000 bài nghiên cứu về học liên kết đã được xuất bản trong sáu tháng đầu năm 2020, so với chỉ 180 bài. trong tất cả năm 2018.

Cách tiếp cận tiêu chuẩn để xây dựng mô hình học máy ngày nay là tập hợp tất cả dữ liệu đào tạo ở một nơi, thường là trên đám mây, và sau đó đào tạo mô hình trên dữ liệu. Nhưng cách tiếp cận này không khả thi đối với phần lớn dữ liệu trên thế giới, vì lý do riêng tư và bảo mật không thể chuyển đến kho lưu trữ dữ liệu trung tâm. Điều này làm cho nó vượt quá giới hạn đối với các kỹ thuật AI truyền thống.

Học tập liên kết giải quyết vấn đề này bằng cách lật lại phương pháp tiếp cận thông thường đối với AI.

Thay vì yêu cầu một tập dữ liệu thống nhất để đào tạo một mô hình, việc học liên kết sẽ để dữ liệu ở vị trí của nó, được phân phối trên nhiều thiết bị và máy chủ. Thay vào đó, nhiều phiên bản của mô hình được gửi đi — một đến mỗi thiết bị có dữ liệu huấn luyện — và được huấn luyện cục bộ trên mỗi tập con dữ liệu. Các tham số mô hình kết quả, nhưng không phải dữ liệu đào tạo, sau đó được gửi trở lại đám mây. Khi tất cả các “mô hình nhỏ” này được tổng hợp, kết quả là một mô hình tổng thể hoạt động như thể nó đã được đào tạo trên toàn bộ tập dữ liệu cùng một lúc.

Trường hợp sử dụng học tập liên hợp ban đầu là đào tạo các mô hình AI trên dữ liệu cá nhân được phân phối trên hàng tỷ thiết bị di động. Như các nhà nghiên cứu đó đã tóm tắt: “Các thiết bị di động hiện đại có quyền truy cập vào nhiều dữ liệu phù hợp với mô hình học máy …. Tuy nhiên, dữ liệu phong phú này thường nhạy cảm về quyền riêng tư, số lượng lớn hoặc cả hai, điều này có thể ngăn cản việc đăng nhập vào trung tâm dữ liệu …. Chúng tôi ủng hộ một giải pháp thay thế khiến dữ liệu đào tạo được phân phối trên các thiết bị di động và tìm hiểu mô hình chia sẻ bằng cách tổng hợp các bản cập nhật được tính toán cục bộ. ”

Gần đây, chăm sóc sức khỏe đã nổi lên như một lĩnh vực đặc biệt hứa hẹn cho việc áp dụng phương pháp học liên kết.

Rất dễ để hiểu lý do vì sao. Có rất nhiều trường hợp ứng dụng AI rất có giá trị trong lĩnh vực chăm sóc sức khỏe. Dữ liệu chăm sóc sức khỏe, đặc biệt là thông tin nhận dạng cá nhân của bệnh nhân, cực kỳ nhạy cảm; một tập hợp các quy định như HIPAA hạn chế việc sử dụng và di chuyển chúng. Học tập liên kết có thể cho phép các nhà nghiên cứu phát triển các công cụ AI chăm sóc sức khỏe, cứu sống bệnh nhân mà không cần chuyển hồ sơ sức khỏe nhạy cảm khỏi nguồn của chúng hoặc để lộ chúng với các vi phạm về quyền riêng tư.

Một loạt các công ty khởi nghiệp đã xuất hiện để theo đuổi việc học liên kết trong lĩnh vực chăm sóc sức khỏe. Được thành lập nhiều nhất là Owkin có trụ sở tại Paris; những người chơi ở giai đoạn trước bao gồm Lynx.MD, Ferrum Health và Secure AI Labs.

Ngoài chăm sóc sức khỏe, một ngày nào đó học tập liên kết có thể đóng vai trò trung tâm trong việc phát triển bất kỳ ứng dụng AI nào liên quan đến dữ liệu nhạy cảm: từ dịch vụ tài chính đến phương tiện tự hành, từ các trường hợp sử dụng của chính phủ đến các sản phẩm tiêu dùng các loại. Được kết hợp với các kỹ thuật bảo vệ quyền riêng tư khác như quyền riêng tư khác biệt và mã hóa đồng hình, học liên kết có thể cung cấp chìa khóa để mở ra tiềm năng to lớn của AI trong khi giảm thiểu thách thức khó khăn về quyền riêng tư dữ liệu.

Làn sóng luật bảo mật dữ liệu đang được ban hành trên toàn thế giới gần nay (bắt đầu với GDPR và CCPA, với nhiều luật tương tự sắp ra mắt) sẽ chỉ thúc đẩy nhu cầu về các kỹ thuật bảo vệ quyền riêng tư này. Mong đợi việc học tập liên kết sẽ trở thành một phần quan trọng của hệ thống công nghệ AI trong những năm tới.

Giới thiệu Workera – Nền tảng đánh giá kỹ năng AI của bạn

Giới thiệu Workera – Nền tảng đánh giá kỹ năng AI của bạn

Workera là gì: Workera là nền tảng đánh giá kỹ năng của các nhà khoa học dữ liệu, kỹ sư học máy và kỹ sư phần mềm. Nó cung cấp phản hồi về hiệu suất, kế hoạch học tập, chứng nhận và giới thiệu đến các công việc AI tốt nhất. Workera hợp tác với các công ty trong các ngành để giúp họ thiết lập một nhóm AI hoạt động hàng đầu. Điều này bao gồm các nhóm kỹ thuật, khoa học ứng dụng và nghiên cứu trong Giáo dục, Sản xuất, Chăm sóc sức khỏe, Lái xe tự hành, Năng lượng, Giao thông vận tải, Người máy, Truyền thông xã hội, FinTech, Nông nghiệp, v.v.!

Cách tiếp cận của Workera là cá nhân hóa các kế hoạch học tập với các tài nguyên được nhắm mục tiêu – cả vai trò kỹ thuật và phi kỹ thuật – dựa trên mức độ thành thạo hiện tại của một người, do đó thu hẹp khoảng cách về kỹ năng.

Workera cung cấp một giải pháp cơ bản miễn phí cho các cá nhân muốn đạt được mục tiêu nghề nghiệp của họ. Đối với các tổ chức đang tìm cách chuyển đổi khả năng Dữ liệu-AI, Workera for Enterprise là giải pháp phù hợp.

Workera được thành lập vào năm 2020 bởi Katanforoosh và James Lee, COO, sau khi làm việc với Andrew Ng, người đồng sáng lập Coursera và là chủ tịch của Workera.

Trang chủ: https://workera.ai/

Machine Unlearning là gì?

Machine Unlearning là gì?

(Nguồn: https://www.allerin.com/blog/)

Tất cả chúng ta đều đã nghe nói về Machine Learning (học máy) và các ứng dụng đột phá của nó. Vì vậy, Machine Unlearning là gì và tại sao cần phải có nó? Vâng, trước tiên chúng ta hãy bắt đầu với sự hiểu biết cơ bản về ý nghĩa của nó. Học máy là một loại trí thông minh nhân tạo cho phép máy móc phân tích, học hỏi và thích ứng với môi trường xung quanh, điều này trước đó đã được thực hiện trên một tập dữ liệu hoàn toàn khác. Machine unlearning hoàn toàn ngược lại với nó. Thiết bị có thể giải phóng nội dung đã học bất cứ khi nào cần.

Machine Unlearning: SỰ CẦN THIẾT ĐỐI VỚI NÓ

Rất nhiều dữ liệu lớn bùng nổ trong các tổ chức và dữ liệu này giúp các thuật toán học máy học cách hoạt động trong môi trường mới. Tuy nhiên, đôi khi chúng tôi muốn hệ thống của mình không học các tài sản kỹ thuật số này vì một số lý do. Thứ nhất, việc lưu giữ dữ liệu liên tục dẫn đến các vấn đề về quyền riêng tư của dữ liệu. Tin tức gần đây trên Facebook đã nói lên tất cả – sự thay đổi trong chính sách quyền riêng tư để gửi thông tin của người dùng trên Web đã khiến người dùng mất lòng tin và cuối cùng họ đã xóa tài khoản của mình. Tương tự, sự cố Vi phạm dữ liệu iCloud đã khiến người dùng không hài lòng, khiến họ phải tìm kiếm các bài báo giảng dạy trực tuyến có thể giúp họ xóa dữ liệu của họ khỏi iCloud. Thứ hai, cùng với quyền riêng tư, việc đáp ứng ràng buộc bảo mật với việc học máy liên tục cũng là một thách thức lớn. Ví dụ: một hệ thống phát hiện bất thường, thường được dùng để phát hiện các cuộc xâm nhập, không thực hiện được công việc của nó với các kỹ thuật học máy. Hãy xem xét một tình huống mà kẻ tấn công đưa một số dữ liệu vào dữ liệu mẹ để gây ô nhiễm hệ thống. Điều gì sẽ xảy ra nếu hệ thống chấp nhận dữ liệu mới này làm dữ liệu của chính nó và thực hiện các tác vụ trong tương lai? Do đó, ở đây bảo mật không thành công. Trong trường hợp này, chúng tôi dường như muốn hệ thống quên dữ liệu bị ô nhiễm sau khi phát hiện và lấy lại bảo mật. Thứ ba, bạn có thể đã gặp phải tình huống Google gửi cho bạn tin tức hoặc cập nhật không quan trọng đối với bạn. Điều này xảy ra khi bạn hoặc bạn bè của bạn đã tìm kiếm chủ đề cụ thể đó và hệ thống biết rằng bạn quan tâm đến vấn đề cụ thể đó. Ở đây, chúng tôi muốn hệ thống không tìm hiểu và chỉ gửi tin tức hoặc khuyến nghị có liên quan cho bạn. Đây chỉ là một số lý do đã tạo ra nhu cầu về kỹ thuật Machine Unlearning.

Machine Unlearning: XÓA DỮ LIỆU KHÔNG MONG MUỐN NHANH CHÓNG

Các nhà nghiên cứu Yinzhi Cao và Junfeng Yang đã đề xuất một hệ thống có thể quên dữ liệu một cách hiệu quả. Mô hình dựa trên hai tiêu chí là tính đầy đủ và kịp thời. Tính đầy đủ có nghĩa là sự khác biệt giữa dữ liệu đào tạo và dữ liệu không được công bố, trong khi tính kịp thời liên quan đến việc hệ thống đã xóa sạch dữ liệu không cần thiết sớm như thế nào. Các nhà nghiên cứu đã thử nghiệm và chạy thành công mô hình này với các hệ thống học máy khác nhau. Sau thành công này, các nhà nghiên cứu hướng tới việc điều chỉnh kỹ thuật machine unlearning với các hệ thống khác và cuối cùng là xóa dữ liệu không mong muốn.

Không nghi ngờ gì nữa, các kỹ thuật học máy đã dẫn đến những đổi mới đáng kinh ngạc và đột phá nhưng chúng cũng dẫn đến một số vấn đề phải được giải quyết sớm nhất. Làm thế nào để sửa chữa chúng? Câu trả lời là machine unlearning.

Thách thức mới của ngành giáo dục: trí tuệ nhân tạo hỗ trợ viết luận văn

Thách thức mới của ngành giáo dục: trí tuệ nhân tạo hỗ trợ viết luận văn

(Nguồn: https://congnghe.tuoitre.vn/)

TTO – Ngành giáo dục đang sắp phải đối mặt với một thách thức mới đang dần lan rộng: AI hỗ trợ viết luận văn.

Thách thức mới của ngành giáo dục: trí tuệ nhân tạo hỗ trợ viết luận văn - Ảnh 1.

Trình tạo văn bản trực tuyến được ra mắt lần đầu vào năm 2005. Giờ đây, văn bản do trí tuệ nhân tạo (AI) tạo ra có thể được tìm thấy trong tiểu thuyết, tin tức giả mạo lẫn các tin tức thật, chiến dịch tiếp thị và hàng chục sản phẩm sáng tạo nội dung khác.

Việc sử dụng công nghệ AI không phải là “đạo văn” theo nghĩa truyền thống, vì không có sự sao chép từ bất kỳ tác phẩm nào trước đây. Thay vào đó, người dùng gợi ý một số văn bản từ một hoặc nhiều nguồn vào chương trình AI. Sau đó, AI tạo nội dung dựa trên các nguồn đó. Người dùng cũng có thể cá nhân hóa theo ý thích. Nhờ vậy, một sinh viên có thể sử dụng AI để rút ngắn thời gian hoàn thành bài luận của mình đi rất nhiều lần so với tự mình viết.

Giả sử một sinh viên muốn viết một bài luận về chính sách Hoa Kỳ – Trung Quốc bằng AI, và sử dụng những dòng sau đây từ một báo cáo của Lầu Năm Góc làm tiền đề: Trung Quốc ngày càng rõ ràng trong các tham vọng và ý định của mình. Bắc Kinh tìm cách định hình lại trật tự quốc tế để phù hợp hơn với hệ thống độc đảng và lợi ích quốc gia của họ, như một thành phần quan trọng trong chiến lược của họ nhằm đạt được sự trẻ hóa vĩ đại của đất nước Trung Quốc.

AI đã kiến tạo nên đoạn văn sau dựa trên những gì đã trình bày ở trên:

Hoa Kỳ và các đồng minh của họ phải đối mặt với một quân đội hiện đại hóa nhanh chóng, với khả năng của họ đang phát triển nhanh chóng, đặc biệt là trên không và trên biển. Trung Quốc cũng đã đạt được những bước tiến lớn trong việc phát triển các năng lực không gian mạng và tập trung vào khả năng làm suy giảm hoặc phá vỡ công nghệ quân sự quan trọng của Mỹ, cũng như nhắm vào cơ sở hạ tầng dân sự. Ngoài việc trở thành một thách thức đối với quân đội Hoa Kỳ và các đồng minh của họ, các hoạt động của Trung Quốc trong không gian mạng có khả năng làm suy thoái các thể chế chính trị và kinh tế của Hoa Kỳ và cơ sở hạ tầng thông tin toàn cầu đang gặp rủi ro.

Nếu một học sinh trung học sử dụng đoạn văn trên, giáo viên chắc chắn sẽ nghi ngờ. Nhưng nếu điều này diễn ra ở cấp đại học hoặc sau đại học, thì sẽ khó bị phát hiện hơn nhiều.

Nhưng vẫn có một số công cụ hỗ trợ học tập được chấp nhận. Khi viết bài, học sinh, sinh viên hoàn toàn có thể sử dụng tiêu chuẩn của Microsoft Word để kiểm tra lỗi ngữ pháp lẫn lỗi trình bày nếu có. Các ứng dụng như Grammarly giúp viết câu hay hơn và sửa lỗi. Google Tài liệu hoàn thành các câu trong bản nháp và email.

Vì vậy, ranh giới giữa việc sử dụng công cụ hỗ trợ và gian lận vẫn còn mờ nhạt.

THÁI Ý

Mô hình học sâu scCAN: Hiệu quả hơn trong phân loại bệnh nhân ung thư

Mô hình học sâu scCAN: Hiệu quả hơn trong phân loại bệnh nhân ung thư

(Nguồn: https://khoahocphattrien.vn/)

Nhóm nghiên cứu của TS. Nguyễn Chí Tín (Đại học Nevada, Reno, Mỹ) đã phát triển được mô hình học sâu scCAN có khả năng phân cụm hàng triệu dữ liệu tế bào trong một thời gian ngắn với độ chính xác cao, nhờ đó có thể tìm ra những tế bào hiếm gặp trong mẫu sinh thiết ung thư một cách hiệu quả hơn.

Tìm lối đi giữa mênh mông dữ liệu

Sự phát triển của công nghệ là một điều mà có lẽ đa phần chúng ta đều mong muốn. Tuy nhiên, sự tiến bộ ấy đôi khi lại dẫn đến một “rắc rối” không nhỏ: số lượng dữ liệu sinh ra sẽ vượt quá khả năng xử lý của con người hay các công cụ hiện có. Và thực tế ấy càng thể hiện rõ nét hơn trong những lĩnh vực còn tương đối mới, ví dụ như công nghệ giải trình tự đơn tế bào (single-cell RNA sequencing).

TS. Nguyễn Chí Tín – trưởng nhóm nghiên cứu.

Trước đây, trong suốt nhiều năm, công nghệ giải trình tự gene thông thường (bulk sequencing) chỉ cho ra dữ liệu biểu hiện gene (gene expression data) dưới dạng kết quả trung bình của toàn bộ các tế bào trong mẫu mô sinh học. Thế nhưng, với sự ra đời của công nghệ giải trình tự đơn tế bào – một công nghệ giải trình tự thế hệ mới được ứng dụng rộng rãi trong những năm gần đây, các nhà sinh học sẽ phải đối mặt với một lượng dữ liệu khổng lồ được sản sinh ra sau mỗi lần giải trình tự. “Đây là công nghệ cho phép phân tích biểu hiện gene của từng tế bào hiện diện trong mẫu để phát hiện ra các dòng tế bào hiếm. Ngày nay, trải qua nhiều cải tiến, số lượng tế bào được giải trình tự trong mỗi lần phần tích đã lên tới hàng triệu hoặc hàng chục triệu, thay vì chỉ một tế bào trong một lần phân tích như ngày xưa”, TS. Nguyễn Chí Tín cho biết.

Khúc mắc nằm ở chỗ, “từ hàng triệu tế bào như vậy, chúng ta cần phải phân loại được các tế bào thuộc vào nhóm nào và chức năng của chúng ra sao, từ đó thì các nhà sinh học mới có thể tìm hiểu từng tế bào một và đánh giá tác động của chúng”, TS. Tín cho biết. Song, hầu hết những công cụ phân cụm tế bào hiện nay đều không thể hoạt động với tập dữ liệu lớn như vậy hoặc cần rất nhiều thời gian xử lý, ngay cả với hai mô hình AI có tên SC3 và Seurat do những đại học hàng đầu thế giới như Đại học Cambridge, Harvard và Học viện công nghệ Massachusetts phát triển.

“Các phương pháp này đều phải dựa vào một công cụ của một bên thứ ba để giảm bớt chiều dữ liệu (dimensionality reduction) trước khi tiến hành phân cụm bằng các thuật toán cổ điển. Trong khi đó, hầu hết các công cụ để giảm chiều dữ liệu như vậy đều rất dễ bị ảnh hưởng bởi ‘nhiễu’ và sự đa dạng của các nguồn dữ liệu giải trình tự. Thế nên khi tiến hành phân cụm trên nhiều tập dữ liệu khác nhau, các mô hình này đều không đảm bảo được độ chính xác ổn định”, TS. Tín phân tích. “Đó là lý do việc phát triển một công cụ mới có thể phân cụm hàng triệu tế bào trong một thời gian ngắn với độ chính xác cao là điều thực sự cần thiết cho các nhà nghiên cứu sinh học”, TS. Tín nhớ lại lý do bắt tay vào phát triển mô hình mới.

Nhận thấy các phương pháp truyền thống trước đây chỉ sử dụng một mô hình học sâu để xử lý “nhiễu” – một trong những điểm thách thức lớn nhất của bài toán và là hạn chế của các mô hình cũ, nhóm của TS. Tín đã quyết định thử sử dụng đồng thời ba mô hình để giải quyết vấn đề. “Trở ngại lớn nhất của phương pháp kết hợp đồng thời ba mô hình như vậy là khả năng tái lập kết quả phân cụm”, TS. Tín nói, “bởi vậy nhóm đã tiến hành tinh chỉnh sâu vào mã nguồn của thư viện xây dựng mô hình học sâu để đảm bảo rằng kết quả phân cụm cuối cùng là đồng nhất trên nhiều nền tảng tính toán”.

Vượt trội so với các mô hình trước

Sau quãng thời gian dài nghiên cứu với tiền đề là một thuật toán được nhóm xây dựng thành công từ năm 2021, TS. Tín và các cộng sự đã phát triển được một mô hình trí tuệ nhân tạo mới có tên scCAN. Đây là một công cụ phân cụm không giám sát (unsupervised) được xây dựng dựa trên nền tảng của công nghệ học sâu, mà cụ thể hơn là bộ tự mã hóa, thuật toán Spectral Clustering (sử dụng thông tin từ các giá trị riêng của các ma trận đặc biệt) và phương pháp lấy mẫu. Kết quả nghiên cứu này mới đây đã được công bố trong bài báo “scCAN: single-cell clustering using autoencoder and network fusion” trên tạp chí Scientific Reports.

So sánh khả năng xử lý của các mô hình.

Không giống các phương pháp truyền thống trước đây, công cụ scCAN sẽ sử dụng hai bộ tự mã hóa khác nhau để tiến hành lọc nhiễu và giảm chiều dữ liệu, trong đó mô hình sẽ loại bỏ những gene không quan trọng và giữ lại 5,000 gene mang nhiều thông tin. “Ở bước này, dữ liệu sau khi lọc nhiễu vẫn có chiều khá lớn. Do đó, scCAN tiếp tục dùng thêm một bộ tự mã hóa để tiếp tục giảm yếu tố này xuống mà không làm mất mát những thông tin quan trọng và cần thiết cho việc phân cụm tế bào”, nghiên cứu sinh Trần Sỹ Bằng – tác giả thứ nhất của nghiên cứu – cho biết. “Phương pháp này đã được ứng dụng rộng rãi trong mảng xử lý ảnh số và cho thấy có hiệu quả cao trong việc xử lý nhiễu. Thế nên việc ứng dụng mô hình này trong scCAN có thể giúp xử lý triệt để sự ảnh hưởng của nhiễu dữ liệu tới kết quả phân cụm – điều mà các phương pháp trước đây chưa làm được”, anh lý giải.

Để giải quyết vấn đề dữ liệu quá lớn, scCAN sử dụng phương pháp lấy mẫu (chọn ngẫu nhiên một lượng tế bào nhỏ để phân cụm trước và tiến hành gán nhãn), rồi sau đó mới xử lý những tế bào chưa được phân cụm còn lại dựa vào “khoảng cách” của chúng tới các nhóm đã phân loại thành công. “Cách làm này giúp đảm bảo mô hình AI của chúng tôi vẫn xử lý nhanh chóng, ngay cả khi tập dữ liệu có nhiều hơn một triệu tế bào”, anh Bằng cho biết. Nhằm kiểm tra khả năng phân cụm của mô hình, nhóm nghiên cứu đã sử dụng 243 tập dữ liệu mô phỏng và 28 tập dữ liệu thực tế thu thập từ nhiều nguồn khác nhau như tế bào não, máu, phổi. Khi so sánh với các phương pháp khác, mô hình của nhóm TS. Tín thể hiện ưu điểm vượt trội cả về khả năng và tốc độ xử lý khi scCAN có thể phân loại chính xác hàng triệu dữ liệu trong thời gian chưa đầy một tiếng đồng hồ.

Với những người ngoài ngành, mô hình phân cụm tế bào của nhóm TS. Tín nghe có vẻ khá xa lạ. Nhưng thực ra, nó ngầm ẩn trong đó những ứng dụng mà có thể đem lại lợi ích cho hàng ngàn người không may mắc phải những căn bệnh hiểm nghèo. Dưới góc nhìn của một nhà khoa học về tin sinh, “công trình này sẽ có ý nghĩa rất lớn trong việc tạo nền tảng cho các nghiên cứu sau này, điển hình là việc phân loại bệnh nhân ung thư và dự đoán rủi ro dựa trên dữ liệu gene”, TS. Tín nhận định.

Anh dẫn ví dụ, ngay cả trong cùng một nhóm bệnh nhân bị ung thư vú thì những người này vẫn có thể mắc bệnh theo bốn loại khác nhau. “Mỗi loại lại có mức độ di căn riêng và có thể điều trị bằng nhiều phương pháp mà không nhất thiết phải dùng hóa trị. Tuy nhiên hiện nay việc chẩn đoán đúng và tiên lượng thuốc vẫn cực kỳ phức tạp, hầu hết các bệnh nhân đều được khuyên sử dụng hóa trị hoặc yêu cầu cắt bỏ một hoặc hai bên ngực để tránh nguy cơ di căn, trong khi đáng lẽ ra có những người có thể được điều trị dứt điểm bằng các phương pháp ít xâm lấn hơn”, nhóm nghiên cứu cho biết.

“Do đó, dựa vào dữ liệu giải trình tự đơn tế bào và khả năng phân cụm chính xác của công cụ scCAN, chúng ta có thể tìm ra những tế bào hiếm gặp trong mẫu sinh thiết ung thư để kiểm nghiệm xem nhóm gene nào là tác nhân đóng góp vào việc phát triển bệnh, từ đó phân loại được bệnh nhân và đưa ra phác đồ điều trị thích hợp”, TS. Tín chia sẻ về những triển vọng tương lai.

Nhóm nghiên cứu của anh cũng đã nhận được các khoản tài trợ tổng cộng hơn 8 triệu USD từ Quỹ Khoa học Quốc gia Hoa Kỳ (NSF), Viện Y tế Quốc gia Hoa Kỳ (NIH) và Cơ quan Hàng không và Vũ trụ Quốc gia (NASA) cho dự án nghiên cứu kéo dài nhiều năm nhằm ứng dụng phương pháp học máy để nâng cao hiệu quả chẩn đoán y tế. Anh cũng hợp tác với các nhà nghiên cứu ở Viện VinBigdata (Việt Nam) để thực hiện các nghiên cứu tương tự. “Và việc lựa chọn được phương pháp điều trị chính xác như vậy sẽ giúp giảm cả chi phí chăm sóc sức khỏe lẫn sự đau đớn cho người bệnh”, TS. Tín nói.

Mỹ Hạnh

Có cách đánh giá học sinh tốt hơn chấm điểm nhưng không được áp dụng

Có cách đánh giá học sinh tốt hơn chấm điểm nhưng không được áp dụng

(Nguồn: https://zingnews.vn/)

Các nhà khoa học cho biết việc quét não có thể đánh giá, dự đoán kết quả học tập của học sinh chính xác hơn việc thi cử, chấm điểm.

Theo nghiên cứu gần đây trên tạp chí Science Advances, các bài kiểm tra và điểm số thông thường mà trường học sử dụng có thể đánh giá việc học kém chính xác hơn so với quét não.

Nghiên cứu này được thực hiện bởi nhóm nghiên cứu từ 7 tổ chức dưới sự chỉ đạo của các nhà khoa học thần kinh tại Đại học Georgetown. Nó có thể không chỉ thay đổi cách các nhà giáo dục thiết kế chương trình giảng dạy mà còn tiết lộ mối liên hệ tiềm ẩn trong trí óc con người.

“Từ lâu, các nhà tâm lý học và triết học đã tranh luận liệu tư duy không gian, giống như hình ảnh tinh thần của các đối tượng, có thực sự ẩn bên dưới suy nghĩ bằng lời hay không”, Adam Green, tác giả lâu năm của cuộc nghiên cứu, phó giáo sư khoa Tâm lý thuộc Đại học Khoa học và Nghệ thuật Georgetown, giải thích.

Ông cho biết: “Nếu điều này là đúng, việc dạy học sinh cải thiện kỹ năng tư duy không gian sẽ thúc đẩy khả năng suy luận bằng lời nói của họ”.

Các nhà nghiên cứu đã khảo sát khóa học khoa học về không gian được giảng dạy tại các trường trung học công lập ở Virginia. Những khóa học này tập trung vào kỹ năng tư duy về không gian như tạo bản đồ và xem xét cách thiết kế lại thành phố để sử dụng ít năng lượng hơn.

Kết quả chụp cộng hưởng từ (MRI) cho thấy não bộ học sinh thay đổi khi họ tham gia khóa học. Những thay đổi này được so sánh với các phương pháp đo lường thông thường về học tập như điểm kiểm tra.

Thay đổi ở não là yếu tố dự đoán chính xác hơn về việc học. Trong đó, có một hình thức học gọi là “chuyển giao xa”, xảy ra khi có sự chuyển giao kiến thức và kỹ năng của người học từ bối cảnh được dạy sang bối cảnh khác. Phương pháp này giúp học sinh hoàn thành các bài tập khi thậm chí họ không được dạy cách làm.

Đối với các nhà giáo dục, chuyển giao xa là hình thức khó thực hiện vì nó rất khó đo lường bằng các kỳ thi truyền thống.

Mô hình tư duy rất quan trọng đối với những khóa học có tính thực tiễn cao. Ảnh: Imperial

mo hinh tu duy anh 1
mo hinh tu duy anh 1
Mô hình tư duy rất quan trọng đối với những khóa học có tính thực tiễn cao. Ảnh: Imperial

Tạo mô hình trong trí não

Phát hiện của nhóm ủng hộ cho Lý thuyết Mô hình Tư duy (Mental Model Theory – MMT). Thuyết này đặt ra khi con người nắm bắt ngôn ngữ nói hoặc viết, trí óc sẽ “không gian hóa” thông tin này. Lý thuyết dựa trên cơ sở hệ thống trong não được phát triển ban đầu để giúp tổ tiên linh trưởng nhanh chóng xem xét những cảnh quan phức tạp.

Khi các nhà nghiên cứu đánh giá khả năng suy luận bằng lời nói, từ trong câu thay vì các đối tượng trên bản đồ, họ nhận thấy những cải thiện rõ rệt ở học sinh đã tham gia khóa học trên. Hơn nữa, học sinh có tư duy không gian càng tốt, khả năng suy luận bằng lời nói càng được cải thiện.

“Những phát hiện này chứng minh MMT có thể là cơ sở quan trọng cho sự chuyển giao xa trong nền giáo dục tập trung vào thực tiễn. Nghiên cứu không chỉ cung cấp hiểu biết về cách giáo dục thay đổi bộ não mà còn tiết lộ hiểu biết quan trọng về bản chất của trí óc”, TS tâm lý học Robert Cortes, tác giả chính, cho biết.

Ông nói thêm lập luận bằng lời nói là một trong những công cụ mạnh mẽ nhất mà quá trình tiến hóa của loài người tạo ra. Vị chuyên gia cho rằng việc kết hợp giữa khoa học thần kinh và giáo dục để hiểu rõ hơn về cách bộ não con người học cách suy luận rất thú vị. Ông hy vọng có thể tận dụng phát hiện này để cải thiện khả năng suy luận của con người rộng rãi hơn.

Nhóm nghiên cứu phát hiện thay đổi trong trung tâm xử lý không gian trong não của học sinh, đặc biệt vỏ não sau. Nó có thể dự đoán chính xác nhất cải thiện trong lập luận bằng lời nói. Điều này cung cấp thêm bằng chứng về MMT trong não.

Sáng tạo chương trình giảng dạy dựa trên quét não

Các cuộc tranh luận về mô hình tư duy đã xảy ra từ lâu, nhưng một trong những cuộc tranh luận gay gắt nhất trong bối cảnh giáo dục hiện đại là liệu khoa học thần kinh có thể cải thiện việc dạy và học trong trường học không.

Việc tích hợp khoa học thần kinh với giáo dục tuy hiệu quả nhưng chi phí cao và tốn nhiều thời gian. Ảnh: Blog.radiology.virginia

mo hinh tu duy anh 2
mo hinh tu duy anh 2
Việc tích hợp khoa học thần kinh với giáo dục tuy hiệu quả nhưng chi phí cao và tốn nhiều thời gian. Ảnh: Blog.radiology.virginia

Mặc dù đầy hứa hẹn về mặt lý thuyết, nỗ lực tích hợp khoa học thần kinh với giáo dục đối mặt nhiều thách thức trong thực tế. Một trong những rào cản lớn là công cụ khoa học thần kinh, như quét MRI, đắt tiền và tốn thời gian. Vì vậy, chúng khó có thể áp dụng ở quy mô lớn trong chính sách giáo dục thực tiễn.

“Chúng tôi không thể quét não của mọi đứa trẻ và sẽ thực sự là một ý tưởng tệ hại nếu làm điều đó ngay cả khi có thể”, Adam Green, giảng viên của Chương trình liên ngành về Khoa học thần kinh, cho biết.

Các nhà phê bình từ lâu đã bày tỏ lo ngại liệu những gì khoa học thần kinh cung cấp thực sự có thể cho nhà giáo dục biết điều gì đó mà họ không thể tìm ra bằng cách sử dụng giấy, bút truyền thống hoặc các bài kiểm tra trên máy tính không.

Phát hiện mới của nhóm nghiên cứu chỉ ra cách mới để tích hợp khoa học thần kinh với giáo dục giúp vượt qua thách thức này. Thay vì tập trung vào bộ não của từng học sinh, nghiên cứu tập trung vào chương trình học.

Kết quả cho thấy hình ảnh não bộ có thể phát hiện thay đổi đi kèm với việc học chương trình cụ thể trong các lớp học thế giới thực. Ngoài ra, những thay đổi não này có thể được sử dụng để so sánh các chương trình giảng dạy khác nhau.

Ông Green nói: “Việc phát triển chương trình giảng dạy có thể diễn ra ở quy mô nhỏ mà khoa học thần kinh có thể đáp ứng một cách thực tế. Vì vậy, nếu có thể tận dụng công cụ hình ảnh thần kinh để xác định phương pháp giảng dạy mang lại hiệu quả chuyển giao tốt nhất, chương trình học có thể được giáo viên và hệ thống trường học áp dụng rộng rãi. Chương trình học có thể tăng cường, nhưng hình ảnh thần kinh không nhất thiết phải tăng thêm”.

Học sinh trong chương trình học về không gian có sự thay đổi não bộ mạnh mẽ hơn học sinh học trong chương trình khoa học tiên tiến khác. Thay đổi này dường như cho thấy não có thể áp dụng chương trình học không gian rất linh hoạt. Đây là điều mà bài kiểm tra truyền thống về kỹ năng cụ thể có lẽ không nắm bắt được đầy đủ.

Đặc biệt, nghiên cứu cung cấp bằng chứng cho thấy quan điểm bên trong mà khoa học thần kinh cung cấp có thể cho các nhà giáo dục hiểu biết sâu sắc về phương pháp học chuyển giao xa.

Theo TS Cortes, nghiên cứu này là ví dụ tuyệt vời về sứ mệnh của khoa học thần kinh trong việc kết nối thần kinh với các lĩnh vực lân cận thông qua khoa học.

“Chúng tôi hy vọng sẽ sử dụng dữ liệu này để thuyết phục các nhà hoạch định chính sách tăng cường khả năng tiếp cận với loại hình giáo dục không gian”, TS Cortes nói.

Tranh cãi về sự nguy hiểm của điện toán lượng tử so với AI

Tranh cãi về sự nguy hiểm của điện toán lượng tử so với AI

Một số chuyên gia đánh giá công nghệ lượng tử là mối đe dọa lớn đối với nhân loại, nhưng số khác lại tin AI mới cần bị kiểm soát.

Từ lâu, không ít chuyên gia cho rằng AI rất nguy hiểm và liệt vào danh sách các công nghệ cần phải kiểm soát. Tuy nhiên, ngày 21/8, nhà báo kiêm chuyên gia công nghệ Vivek Wadhwa và Mauritz Kop, giáo sư thỉnh giảng tại Đại học Stanford, có bài viết trên tạp chí Foreign Policy, nhấn mạnh điện toán lượng tử nguy hiểm hơn AI.

Điện toán lượng tử nguy hiểm hơn AI?

“Bất chấp những cường điệu xung quanh AI rằng chúng có tri giác, công nghệ này chưa thể đi vào cuộc sống. Nó thậm chí không thành công khi thực hiện các tác vụ đơn giản hàng ngày, chẳng hạn khi điều khiển phương tiện giao thông và đối mặt với tình huống bất ngờ đòi hỏi trực giác. Lúc này AI không thể làm gì, còn con người chỉ cần tư duy ở mức thấp đã có thể xử lý”, hai tác giả mở đầu bài viết.

CEO Sundar Pichai (trái) đứng cạnh một trong những máy tính lượng tử của Google, tháng 10/2019. Ảnh: Reuters
CEO Sundar Pichai (trái) đứng cạnh một trong những máy tính lượng tử của Google, tháng 10/2019. Ảnh: Reuters

Theo Wadhwa và Kop, AI hiện chỉ là một công nghệ thô sơ được thổi phồng. Trong khi đó, điện toán lượng tử có tác động tiềm tàng lớn hơn nhiều. Sức mạnh của nó thậm chí ngày càng vượt trội nếu được kết hợp với chính công nghệ AI.

“Dù vẫn còn sơ khai, tính toán lượng tử hoạt động theo nguyên lý rất khác so với máy tính hiện nay. Nếu các dự án hiện có trên khắp thế giới thành công, các cỗ máy này sẽ vô cùng mạnh mẽ, thực hiện các nhiệm vụ chỉ trong vài giây mà máy tính thông thường phải mất hàng triệu năm mới thực hiện được”, Wadhwa cho biết.

Máy tính lượng tử hiện xử lý thông tin theo cách khác biệt. Với máy tính thông thường, dữ liệu được mã hóa thành số nhị phân (bit) và gán cho hai giá trị Tắt và Mở, tương ứng là 0 và 1. Nó chỉ có thể xử lý lần lượt một trong hai giá trị 0 hoặc 1. Trong khi đó, máy tính lượng tử sử dụng đơn vị tính toán gọi là qubit, cho phép tồn tại đồng thời ở nhiều trạng thái như 1-0, 1-1, 0-1 và 0-0 cùng lúc, từ đó lượng thông tin được xử lý nhanh hơn nhiều máy tính bình thường.

“Nếu vật lý lượng tử rời khỏi giai đoạn thử nghiệm để ứng dụng hàng ngày, nó sẽ làm được rất nhiều thứ và thay đổi nhiều khía cạnh cuộc sống”, bài viết nêu. “Với sức mạnh tính toán đó, máy tính lượng tử có thể nhanh chóng thu thập lượng dữ liệu khổng lồ, áp đảo bất kỳ hệ thống nào hiện nay”.

Tuy nhiên, cả hai lo ngại công nghệ này sẽ bị lợi dụng cho những mục đích bất chính, như chế tạo các loại vật liệu, vũ khí sinh học mới độc hại hơn. Nhưng nguy cơ tiềm tàng nhất là bẻ khóa hệ thống mật khẩu hoặc mã hóa dữ liệu.

Thực tế, sức mạnh giải mã của máy tính lượng tử là vô hạn. Cyber News lấy ví dụ, nếu các đơn vị tình báo được trang bị máy tính lượng tử, họ có thể phá vỡ mã hóa RSA 2048-bit trong chưa đầy 8 tiếng. Trong khi đó, nếu đưa nhiệm vụ tương tự cho siêu máy tính nhanh nhất thế giới và thực hiện giải mã bằng kỹ thuật truyền thống, cỗ máy này có thể mất khoảng 300 nghìn tỷ năm mới vượt qua.

Từ 2017, Larry Karisny, Giám đốc tổ chức bảo mật Project Safety, cho rằng một khi công nghệ lượng tử hỗ trợ bẻ khóa các loại mật mã, nền kinh tế cũng như sự cân bằng quyền lực giữa các quốc gia sẽ bị phá vỡ. “Công nghệ máy tính lượng tử không thể bị tấn công và về lý thuyết, sức mạnh xử lý của nó có thể phá vỡ mọi loại mã hóa”, Karisny nói với Forbes.

Các cơ quan quản lý cũng bắt đầu nhận thức về vấn đề này. Tổ chức Tiêu chuẩn và Công nghệ (NIST) thuộc Bộ Thương mại Mỹ đã nghiên cứu cái gọi là Mật mã kháng lượng tử, trong đó phát triển hệ thống mật mã an toàn để chống lại cả khả năng bẻ khóa của máy tính lượng tử.

Điện toán lượng tử cũng đang dần xuất hiện trong doanh nghiệp. Theo dự đoán của IDG, khoảng 25% công ty trong danh sách Fortune 500 có thể dùng máy tính lượng tử trong ba năm tới. “Chúng có thể đẩy nhanh các quá trình về giải mã, thu thập dữ liệu và vi phạm quyền riêng tư. Thậm chí, sẽ có sự chạy đua vũ trang giữa các công ty với nhau”, trang Deloitte bình luận.

Theo Wadhwa và Kop, các chính phủ trên thế giới cần tính đến chuyện kiểm soát sự phát triển của điện toán lượng tử vì công nghệ này “có nguy cơ tiềm tàng” hơn hẳn AI nếu bị sử dụng sai mục đích.

Ý kiến phản đối

Sau ý kiến của Wadhwa và Kop, chuyên gia hệ thống thông tin Tristan Greene phản bác. “Tôi đồng ý với quan điểm lượng tử có tiềm năng trở thành công nghệ có tác động lớn, thậm chí khiến lịch sử sang trang. Nhưng nỗi lo về mối đe dọa của nó có thể là thừa”, Greene nêu trên The Next Web.

Lấy ví dụ về việc giải mã các dữ liệu bí mật, ông cho rằng máy tính lượng tử chỉ nhằm mục đích tăng tốc. Trong khi đó, hiện thế giới đã có những cách thức để giảm thiểu mối đe dọa từ việc giải mã lượng tử. Quan trọng hơn, chi phí hàng tỷ USD cho một cỗ máy lượng tử cũng là rào cản lớn mà không phải ai cũng có thể đầu tư. Với các tổ chức hoặc phòng thí nghiệm đã sở hữu loại máy này, họ cũng đang phải chịu sự quản lý và kiểm soát của cơ quan quản lý cấp chính phủ.

“Vậy tác hại tiềm tàng mà máy tính lượng tử có thể gây ra là gì? Theo tôi, nó sẽ làm trầm trọng thêm các vấn đề sẽ đưa vào phân tích, như sai lệch thuật toán”, Greene nói. “Điện toán lượng tử giống như một phản ứng tổng hợp. Nó có khả năng gây ra tác hại lớn ở quy mô chưa từng có, nhưng chi phí đầu vào đủ cao để ngăn phần lớn mọi người trên hành tinh tiếp cận”.

Trong khi đó, ông cho rằng AI hiện phổ biến hơn nhiều. Với Internet và một chiếc máy tính, mỗi người có thể tự lên mạng, tải AI về và trải nghiệm. “Chỉ với một chút chuyên môn và kỹ năng, mỗi người đều có thể học cách xây dựng và triển khai mô hình AI”, Greene nhấn mạnh. “Khả năng tiếp cận dễ dàng của AI khiến nó trở thành mối đe dọa rõ ràng và hiện hữu đối với từng con người trên Trái đất”.

Không chỉ Greene, nhiều người cũng lo ngại AI có thể gây hại cho nhân loại nếu sử dụng sai cách. Trò chuyện tại nhà máy Tesla ở California đầu năm nay, tỷ phú Elon Musk cho biết nỗi sợ hãi lớn nhất của ông là “AI hoạt động sai“. Hồi tháng 3/2018, ông cũng nhấn mạnh “AI nguy hiểm hơn hạt nhân nhiều”.

Trong tháng 8, giới công nghệ cũng liên tục tranh cãi sau khi Blake Lemoine, cựu chuyên gia AI của Google, kết luận chatbot thông minh LaMDA mà Google đang phát triển “có tư duy của một đứa trẻ”.

Nhiều người cho rằng AI hiện nay chỉ đơn giản phản hồi lệnh mà người dùng đưa vào sao cho phù hợp dựa trên khối lượng dữ liệu khổng lồ đã có. Tuy nhiên, không ít chuyên gia nhận định “AI có tư duy hoàn toàn có thể xuất hiện trong 10-20 năm nữa, nên các chính phủ cần kiểm soát loại công nghệ này chặt chẽ hơn so với hiện tại”.

Trong khi đó, điện toán lượng tử mới ở giai đoạn sơ khai dù phát triển nhanh. Hiện máy tính lượng tử do công ty QuEra chế tạo được cho là mạnh nhất hiện nay với 256 qubit, cao hơn Jiuzhang 2 của Trung Quốc với 66 qubit. Cuối năm ngoái, IBM cũng ra mắt chip lượng tử Eagle với 127 qubit nhưng chưa áp dụng trên hệ thống nào. Hãng cũng dự định ra Quantum Osprey 433 qubit năm nay và Quantum Condor 1.121 qubit vào năm sau.

Bảo Lâm

Trí Tuệ Nhân Tạo Cho Mọi Người [Book]

Trí Tuệ Nhân Tạo Cho Mọi Người

(Tác giả: Mai Tiểu Long – Nguồn: https://www.maitieulong.com/)

Trong những năm gần đây, trí tuệ nhân tạo đã trở thành một ngành thời thượng. Các ứng dụng liên quan cung cấp cho con người những tiện ích vượt trội mà chỉ vài năm trước tưởng chừng không thể nào tồn tại. Iphone cho phép mở khóa điện thoại bằng nhận dạng khuôn mặt. Youtube gợi ý phim theo sở thích. Chương trình chơi cờ vây vượt mặt con người. Tất cả tạo nên ánh hào quang xung quanh một công nghệ mới.

Mặc dù vậy, trí tuệ nhân tạo vẫn còn là một công nghệ khó hiểu đối với số đông. Đa phần các sách chuyên ngành tập trung vào việc truyền tải kiến thức cho kỹ sư phần mềm để đáp ứng nhu cầu nhân lực trước mắt. Ngược lại, báo chí và truyền thông đã ít nhiều đề cập tới nhưng vẫn chưa đủ sâu sắc và hoàn chỉnh. Nhiều độc giả cần tìm hiểu thêm về công nghệ mới thì không có nguồn để tham khảo. Đó là lý do cuốn sách này ra đời.

Đối tượng độc giả của cuốn sách này là tất cả bạn đọc quan tâm tới trí tuệ nhân tạo nhưng không nhất định phải trở thành nhà nghiên cứu chuyên nghiệp. Cuốn sách được viết theo phong cách đơn giản để có thể truyền tải hiệu quả những công nghệ liên quan. Ngoài ra, trong tình hình nước ta đang phát triển mạnh mảng kinh tế tri thức và trí tuệ nhân tạo là một mũi nhọn, tác giả hi vọng có thể góp phần giúp các nhà làm chính sách có thêm một kênh tiếp cận công nghệ mới thông qua quyển sách này.

Xin trân trọng cảm ơn!

Đại công quốc Luxembourg, tháng 4/2021,

Mai Tiểu Long

—————————————–

Mục lục

Lời mở đầu

Về tác giả

Chương 0: Câu chuyện cờ vây

Chương 1: Bài kiểm tra Turing

Chương 2: Thuật toán lan truyền ngược

Chương 3: Hình ảnh và ngôn ngữ

Chương 4: Cuộc thi nhận dạng vật thể

Chương 5: Bài giảng cho mọi người

Chương 6: Người tạo giấc mơ

Chương 7: Tấn công và phòng thủ

Chương 8: Phân biệt 7 tỷ người

Chương 9: Một hướng đi khác

Chương 10: Thế nào là trí thông minh?

Lời kết