Ở thời gian hiện tại, với những thành tự đã đạt được, thì câu vấn đáp chắc như đinh sẽ là không. Tuy nhiên, khi ta đạt tới trình độ tổng hợp sinh học ( tổng hợp được trí não con người và trí tuệ tự tạo ), thì với mục tiêu sử dụng xấu, AI sẽ trở nên nguy khốn. Cụ thể, nguy khốn không tới từ những quy mô mạng nơ-ron, mà từ việc tăng trưởng những mạng nơ-ron trên AND cùng lập trình liên tục. Nhưng thời gian này là khi nào, thì ta lại không hề biết chắc. Sự tăng trưởng liên tục, những tò mò mới, những cách mạng công nghệ tiên tiến và kỹ thuật liên tục – những biến hóa này đang làm con người trở nên sợ hãi .Bạn đang xem : Big brother là gìNhưng đây chỉ là một yếu tố về quan điểm : đổi khác xảy ra khi ta chuyển từ ngựa sang xe, ý tưởng ra điện, tạo ra Internet ; và trong khi nhiều người tìm thấy thời cơ, thì nhiều người lại e sợ trước những rủi ro tiềm ẩn. Hiện nay, nhiều quan điểm thấp thỏm đã được bày tỏ bởi một vài nhân vật nổi tiếng trong giới khoa học ( Hawking ) cũng như kinh doanh thương mại ( Elon Musk ), đơn cử là :AI sẽ tiến bộ rất nhanh, và sớm sẽ phát triển quá mạnh với những kinh nghiệm và kiến thức mà chúng đã tích lũy. Trong đó, ảnh hưởng ngắn hạn mà AI đem lại sẽ phụ thuộc vào người sử dụng, còn ảnh hưởng dài hạn lại phụ thuộc vào liệu họ có khả năng kiểm soát AI hay không. Những thiết bị AI sẽ rất có thể phân tích tình huống và đưa ra quyết định một cách độc lập; những quyết định này hoàn toàn có thể gây bất lợi cho con người.Con người đã sớm không còn kiểm soát được sự phát triển. Và như vậy, bất cứ ai cũng đều có thể tạo ra các sản phẩm gây hại tới cá nhân hay cả quốc gia. Hiện nay, Liên Hợp Quốc đã và đang bắt tay vào xây dựng các điều luật để kiểm soát việc sử dụng AI trong mâu thuẫn quân sự.Các nhà khoa học cảm thấy AI là một mối nguy hại tới xã hội. Theo họ, việc sử dụng công nghệ AI rộng rãi sẽ làm con người mất khả năng tự đưa ra quyết định, và trở nên phụ thuộc vào quyết định của máy móc. Những thiết bị thông minh, như vậy, sẽ có thể kiểm soát ý kiến và quan điểm của chủ sở hữu chúng.Nguy cơ “Super Nova Mind”. Cụ thể, theo Nick Bostrom, AI sẽ tiến hóa tương tự như con người: dần dần phát triển nhận thức. Như vậy, AI sẽ sớm trở thành giống loài thống trị hành tinh, được thúc đẩy bởi những hành động hiện nay của con người. Nhưng câu hỏi là, liệu siêu trí thông minh này, vốn được xây dựng lấy con người là cơ sở, sẽ mang hình thái là thiết bị nhân tạo hoàn toàn, hay là sản phẩm tích hợp giữa nhân tạo và con người?“Khởi nghĩa của máy móc” – cũng là mối lo ngại phổ biến nhất về AI. Đây là một mối lo khá phi lý, và có thể được kiểm soát với những tác động về luật pháp và kiểm soát về phát triển AI.

AI sẽ tiến bộ rất nhanh, và sớm sẽ phát triển quá mạnh với những kinh nghiệm và kiến thức mà chúng đã tích lũy. Trong đó, ảnh hưởng ngắn hạn mà AI đem lại sẽ phụ thuộc vào người sử dụng, còn ảnh hưởng dài hạn lại phụ thuộc vào liệu họ có khả năng kiểm soát AI hay không. Những thiết bị AI sẽ rất có thể phân tích tình huống và đưa ra quyết định một cách độc lập; những quyết định này hoàn toàn có thể gây bất lợi cho con người.Con người đã sớm không còn kiểm soát được sự phát triển. Và như vậy, bất cứ ai cũng đều có thể tạo ra các sản phẩm gây hại tới cá nhân hay cả quốc gia. Hiện nay, Liên Hợp Quốc đã và đang bắt tay vào xây dựng các điều luật để kiểm soát việc sử dụng AI trong mâu thuẫn quân sự.Các nhà khoa học cảm thấy AI là một mối nguy hại tới xã hội. Theo họ, việc sử dụng công nghệ AI rộng rãi sẽ làm con người mất khả năng tự đưa ra quyết định, và trở nên phụ thuộc vào quyết định của máy móc. Những thiết bị thông minh, như vậy, sẽ có thể kiểm soát ý kiến và quan điểm của chủ sở hữu chúng.Nguy cơ “Super Nova Mind”. Cụ thể, theo Nick Bostrom, AI sẽ tiến hóa tương tự như con người: dần dần phát triển nhận thức. Như vậy, AI sẽ sớm trở thành giống loài thống trị hành tinh, được thúc đẩy bởi những hành động hiện nay của con người. Nhưng câu hỏi là, liệu siêu trí thông minh này, vốn được xây dựng lấy con người là cơ sở, sẽ mang hình thái là thiết bị nhân tạo hoàn toàn, hay là sản phẩm tích hợp giữa nhân tạo và con người?“Khởi nghĩa của máy móc” – cũng là mối lo ngại phổ biến nhất về AI. Đây là một mối lo khá phi lý, và có thể được kiểm soát với những tác động về luật pháp và kiểm soát về phát triển AI.

Tuy nhiên, mối rình rập đe dọa lớn nhất không phải là từ những quan ngại trên, mà xuất phát từ ứng dụng thực tiễn của thuyết “ Big Brother ” do cơ quan chính phủ, cũng như 1 số ít dịch vụ AI đặc biệt quan trọng khác. Vậy, “ Big Brother ” là gì ?*

AI và thuyết “Big Brother”

Nếu bạn đã từng đọc cuốn tiểu thuyết “ 1984 ” của nhà văn nổi tiếng người Anh, J.Orwell, hẳn là bạn đã quen thuộc với hình ảnh “ Big Brother ”. Trong đó, “ Big Brother ” là đại diện thay mặt của chính sách toàn trị, chống phá dân chủ, và trấn áp nhân dân. Và đơn cử, thuyết “ Big Brother ” xoay quanh mối lo rằng, những cơ quan tình báo chính phủ nước nhà của những nước tăng trưởng sẽ vận dụng một chính sách trấn áp công dân, trong đó gồm có trấn áp hoạt động giải trí trên Internet. Và tại Mỹ, thuyết này đã phần nào hình thành, khi những cơ quan tình báo của cơ quan chính phủ Mỹ được cho là giải quyết và xử lý còn nhiều tài liệu hơn cả những công ty công nghệ tiên tiến lớn nhất .Vào hồi tháng 12, năm 2017, Phó Giám đốc Cơ quan Tình báo Trung Ương ( CIA ) về Phát triển Công nghệ, đã san sẻ rằng cơ quan hiện đang thực thi 137 dự án Bất Động Sản AI, trong đó hầu hết có tương quan tới những công ty công nghệ tiên tiến tại thung lũng Silicon. Đây là một số lượng vô cùng lớn, và với số lượng này, CIA đang bộc lộ tham vọng sử dụng AI làm công cụ giải quyết và xử lý thông tin chính, và cũng sẽ tăng góp vốn đầu tư cho công cụ này. Các cụ tình báo Hoa Kỳ hiện cũng đang giải quyết và xử lý những lượng tài liệu đồ sộ – bao hàm hàng loạt Internet. Ngoài ra, CIA cũng đang tăng trưởng những thuật toán Dự kiến với yếu tố AI, giúp tìm ra những mối đối sánh tương quan không bình thường trong tài liệu. Và những mạng lưới hệ thống này sẽ chỉ ra những hiện tượng kỳ lạ vốn không hề phát hiện với những công cụ truyền thống lịch sử, qua đó tương hỗ trong việc ra những quyết định hành động về chính trị và quân sự chiến lược .Nhưng trường hợp lại không riêng gì dừng lại ở những dịch vụ đặc biệt quan trọng cho cơ quan chính phủ. Việc theo dõi những mạng xã hội nhu yếu lượng tài nguyên rất lớn, song song với đó là những tác vụ nặng như nghiên cứu và phân tích hình ảnh vệ tinh, những thông cáo từ tiếp thị quảng cáo, tin tức trên mạng xã hội và phòng chat. Vì vậy, những dịch vụ đặc biệt quan trọng sẽ phải sử dụng tới AI, và kẻ hưởng lợi là những công ty công nghệ tiên tiến có năng lực thu thập dữ liệu, đơn cử là Alphabet Inc. ( GOOGL ), Facebook Inc. ( FB ), và công ty phân phối nền tảng AI như IBM Watson ( IBM ) .Hiện tại, chính phủ nước nhà Trung Quốc cũng đã đang triển khai những chủ trương không quá sai biệt so với “ Big Brother ” – và đây là những nguy khốn của AI, nhưng lại xuất phát từ chính con người, mà đơn cử là từ nhu yếu trấn áp xã hội của con người. Và như vậy, nguy hại nhất không phải là AI, mà là từ mối chăm sóc của con người – mối chăm sóc tới trấn áp, tới tài liệu, và tới những quyền lợi kinh tế tài chính thu được từ AI .

Thổi phồng và lừa đảo

Song song với sự tăng trưởng, với xu thế sử dụng AI là sự Open của vô số những start-up lừa đảo, chỉ hoạt động giải trí để kiếm tiền góp vốn đầu tư, mà không tăng trưởng ra một loại sản phẩm nghiên cứu và điều tra có ích nào. Dưới lớp ngụy trang “ tăng trưởng AI ”, những công ty này hoạt động giải trí không có một chút ít nào tương quan tới công nghệ tiên tiến này .Một dẫn chứng rõ ràng cho sự lừa đảo này đến từ bật mý của một cựu nhân viên cấp dưới Engineer. ai – rằng công ty này nói với những nhà đầu tư là ứng dụng của họ được tăng trưởng bởi AI, trong khi thực tiễn, họ thuê những lập trình viên giá rẻ. Và phi vụ này đã giúp Engineer. ai kiếm chác tới 29,5 triệu đô-la, lừa đảo thành công xuất sắc nhà đầu tư Deepcore Inc. ( công ty con của tập đoàn lớn SoftBank, Nhật Bản ), quỹ góp vốn đầu tư đến từ Zurick – Lakestar ( nhà đầu tư tiên phong vào Facebook và Airbnb ), và Jungle Ventures, Nước Singapore .Xem thêm : Hướng Dẫn Cài Đặt 3 Phần Mềm Phát Wifi Trên Laptop Tốt Nhất Hiện NayMột công ty sẽ tự trở nên mê hoặc hơn với những nhà đầu tư nếu nó sử dụng AI và bởi việc trấn áp và kiểm tra yếu tố này là rất khó khăn vất vả, những nhà đầu tư sẽ thuận tiện bị rơi vào bẫy lừa đảo. Và Engineer. ai cũng không phải trường hợp duy nhất, những vụ lừa này xảy ra trên khắp toàn thế giới. Theo PitchBook, so với năm 2017, những công ty và quỹ góp vốn đầu tư đã tăng gấp đôi vốn góp vốn đầu tư cho những start-up AI trong năm 2018, và một công ty hoàn toàn có thể lôi cuốn góp vốn đầu tư chỉ bằng việc thêm “ AI ” vào tên miền .Theo MMC Ventures, đa phần những công ty công nghệ tiên tiến tự nhận là AI, đều không thực sự sử dụng AI trong những mẫu sản phẩm. Cụ thể, có tới 40 % những start-up, tức 2.830 công ty đang sử dụng giải pháp lừa đảo này. Như vậy, chỉ cần sử dụng “ trí tuệ tự tạo ” lên những mẫu sản phẩm, những nhà tăng trưởng nghiệp dư hoàn toàn có thể lôi cuốn quan tâm, kiếm thêm trung bình 15-50 % vốn góp vốn đầu tư so với việc không sử dụng. Đồng thời, những start-up cũng sẽ không tự công khai minh bạch họ ứng dụng AI vào điều gì, tạo ra một “ khủng hoảng bong bóng AI ”, mà hoàn toàn có thể vỡ bất kể khi nào, gây tác động ảnh hưởng nghiêm trọng tới những đối tượng người tiêu dùng trên thị trường. Ngoài ra, AI cũng đang làm tốt hơn trong việc trá hình con người : ngôn từ của chúng đang dần trở nên tự nhiên hơn, hòa hợp hơn, và sớm thôi, việc phân biệt thật giả sẽ trở nên vô cùng khó khăn vất vả .Vào mùa hè năm năm nay, công ty bảo mật thông tin thông tin ZeroFox đã phát hiện ra một loại bot mới trên Twitter, có tên gọi SNAP_R. Bot này có năng lực dụ người dùng nhấp vào những đường link dẫn tới những website độc, qua đó hình thành một mạng lưới hệ thống lừa đảo từ việc nghiên cứu và phân tích hành vi người dùng trên mạng xã hội, từ đó biết được nhu yếu và sở trường thích nghi của họ. Như vậy, khi người dùng lướt Twitter, họ sẽ thấy những link báo giả, tương thích với sở trường thích nghi, và nhấn vào đường link .

Dù SNAP_R không được tạo ra với mục đích xấu, nhưng cơ chế của nó lại rất đáng báo động. Và vì vậy, chúng ta phải luôn tỉnh táo và cẩn thận trước những tin tức giả được lan truyền bởi AI. Ngoài ra, sử dụng SNAP_R, có 2 nhà nghiên cứu đã thành công xây dựng một mạng nơ-ron có khả năng học từ một lượng dữ liệu lớn, như học cách nhận diện hình ảnh sau khi phân tích nhiều hình ảnh, hay nhận diện ngôn ngữ nói từ phân tích nhiều hội thoại.

Với năng lực này, việc phát tán những tin tức và tin nhắn lừa đảo trải qua nghiên cứu và phân tích mạng xã hội là vô cùng thuận tiện, và đang được tiếp nối ngay trong thời gian hiện tại. Hiện nay, AI đang được sử dụng trong vô cùng nhiều nghành nghề dịch vụ : từ nhận diện giọng nói cho tới dịch thuật văn bản và năng lượng này hoàn toàn có thể được sử dụng để lửa hòn đảo hàng triệu người dùng Internet. Thậm chí, việc không sử dụng chúng để lừa đảo mới là đang quá bất ngờ, nhất là trong thời gian những hành vi này tràn ngập khắp mọi nơi .Và mối quan ngại lại càng dâng cao trước AI trong công nghệ tiên tiến Deepfake : tạo ra những hình ảnh, video giả trông vô cùng giống thật, với những tiềm năng sử dụng không mấy tốt đẹp. Như vậy, mối rình rập đe dọa của AI tới từ chính mối quan hệ giữa con người và công nghệ tiên tiến, cũng như từ mục tiêu sử dụng chúng .Nhưng điều này cũng có nghĩa rằng : AI sẽ vô cùng có lợi khi ta hoàn toàn có thể trấn áp chúng – và đây nên là tiềm năng thứ nhất trong việc điều tra và nghiên cứu. Hiện nay, ta vẫn chưa góp vốn đầu tư nghiên cứu và điều tra về phòng tránh và ngăn ngừa những tai hại của AI, và như vậy, việc tăng nhanh nghiên cứu và điều tra về trí mưu trí máy tính và đời sống tương lai là vô cùng thiết yếu. Nhưng liệu tất cả chúng ta hoàn toàn có thể thành công xuất sắc ? Đây vẫn là một câu hỏi mà hiện này chưa hề có đáp án.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *