keo ty le bong da hom nay

  • Sự đóng góp
  • Thời gian cập nhật 25/10/2021
  • 3 readings
  • Rating 0
  • great
  • Step on

Giới thiệu về keo ty le bong da hom nay

chem gio bong da

Thông tin sai lệch và chủ nghĩa cực đoan lan truyền không được kiểm soát. Lời nói căm thù châm ngòi cho xung đột và bạo lực ở Hoa Kỳ và ở nước ngoài. Những kẻ buôn người chia sẻ một nền tảng với hình ảnh em bé và thông báo về sự tham gia.

Bất chấp sứ mệnh mang mọi người đến gần nhau hơn, các tài liệu nội bộ do USA TODAY thu được cho thấy Facebook biết rằng người dùng đang bị phân tán bởi nhiều loại nội dung nguy hiểm và gây chia rẽ trên nền tảng của mình.

Các tài liệu là một phần của tiết lộ cho Ủy ban Chứng khoán và Giao dịch bởi người tố giác Facebook Frances Haugen. Một nhóm các tổ chức tin tức, bao gồm USA TODAY, đã xem xét các phiên bản biên tập lại mà Quốc hội nhận được.

Các tài liệu cung cấp một cái nhìn thoáng qua về các quyết định nội bộ được thực hiện tại Facebook ảnh hưởng đến gần 3 tỷ người dùng trên toàn cầu.

Lo ngại rằng Facebook đang ưu tiên lợi nhuận hơn hạnh phúc của người dùng, Haugen đã xem xét hàng nghìn tài liệu trong vài tuần trước khi rời công ty vào tháng Năm.

►Một câu chuyện về hai tài khoản:Câu chuyện của Carol và Karen: Hai tài khoản Facebook thử nghiệm cho thấy công ty đã giúp phân chia nước Mỹ như thế nào

►Facebook đổi mới thương hiệu trên đường chân trời ?:Facebook đang thay đổi tên công ty? Báo cáo cho biết: Chuyển sang metaverse châm ngòi cho kế hoạch đổi thương hiệu

Các tài liệu, một số là chủ đề báo cáo rộng rãi của The Wall Street Journal và The New York Times, nghiên cứu chi tiết của công ty cho thấy nội dung độc hại và gây chia rẽ phổ biến trong các bài đăng được Facebook thúc đẩy và chia sẻ rộng rãi bởi người dùng.

Mối quan tâm về cách Facebook hoạt động và tác động của nó đối với thanh thiếu niên đã thống nhất các nhà lãnh đạo quốc hội. Có thể xảy ra nhiều thất bại chính trị hơn khi Haugen ra điều trần hôm thứ Hai trước Quốc hội Anh.

Phản hồi của Facebook

Facebook hiện đang phải đối mặt với sự giám sát gắt gao nhất kể từ khi ra mắt vào năm 2004.

Giám đốc điều hành Mark Zuckerberg đã bảo vệ công ty và các hoạt động của nó, chia sẻ trong một bản ghi nhớ nội bộ của nhân viên rằng "điều rất quan trọng đối với tôi là mọi thứ chúng tôi xây dựng đều an toàn và tốt cho trẻ em."

Phát ngôn viên của công ty Andy Stone cho biết trong một tuyên bố với USA TODAY, "Trọng tâm của những câu chuyện này là tiền đề sai. Đúng, chúng tôi là một doanh nghiệp và chúng tôi tạo ra lợi nhuận, nhưng ý tưởng rằng chúng tôi làm như vậy với chi phí Sự an toàn của mọi người hoặc sự hiểu lầm về sức khỏe của chúng ta là do lợi ích thương mại của riêng chúng ta nằm ở đâu. Sự thật là chúng tôi đã đầu tư 13 tỷ đô la và có hơn 40.000 người để làm một công việc: giữ cho mọi người an toàn trên Facebook. "

Cựu nhân viên Facebook Frances Haugen đã cảnh báo các thượng nghị sĩ về sự nguy hiểm của trang mạng xã hội này, nhưng vẫn nuôi hy vọng vào nền tảng này.

Nick Clegg, Phó chủ tịch phụ trách các vấn đề toàn cầu của Facebook, cũng lặp lại tình cảm tương tự trong một bản ghi nhớ sâu rộng gửi cho nhân viên vào thứ Bảy do USA TODAY thu được. Clegg nói với nhân viên rằng họ "không nên ngạc nhiên khi thấy mình bị giám sát gắt gao như thế này."

Clegg nói: “Tôi nghĩ rằng hầu hết những người hợp lý sẽ thừa nhận mạng xã hội đang chịu trách nhiệm về nhiều vấn đề sâu xa hơn trong xã hội - từ biến đổi khí hậu đến phân cực, từ sức khỏe tâm thần vị thành niên đến tội phạm có tổ chức. "Đó là lý do tại sao chúng ta cần các nhà lập pháp giúp đỡ. Không nên để các công ty tư nhân tự quyết định nơi vạch ra ranh giới về các vấn đề xã hội.

Chủ nhật, Thượng nghị sĩ Richard Blumenthal, D-Conn., Chủ tịch Tiểu ban Bảo vệ Người tiêu dùng, nơi tổ chức lời khai của Haugen, nói với CNN rằng Facebook "nên làm rõ ràng và tiết lộ mọi thứ."

Sự lan truyền của thông tin sai lệch

Các tài liệu tiết lộ các cuộc thảo luận nội bộ và thử nghiệm khoa học xung quanh thông tin sai lệch và nội dung có hại đang được lan truyền trên Facebook.

Một thay đổi đối với thuật toán ưu tiên những gì người dùng thấy trong Bảng tin của họ đã được triển khai vào năm 2018 và được cho là sẽ khuyến khích "các tương tác xã hội có ý nghĩa" và tăng cường mối quan hệ với bạn bè và gia đình.

Các nhà nghiên cứu của Facebook đã phát hiện ra sự thay đổi thuật toán đang làm trầm trọng thêm sự lan truyền của thông tin sai lệch và nội dung có hại và tích cực thử nghiệm các cách để hạ cấp và chứa nội dung đó, tài liệu cho thấy.

► Người tố giác Facebook Frances Haugen là ai:Mọi thư bạn cân biêt

►Từ bạn bè trên Facebook thành kẻ lừa đảo lãng mạn:Người Mỹ lớn tuổi ngày càng bị nhắm mục tiêu trong bối cảnh đại dịch COVID

Nguồn cấp dữ liệu tin tức có bạo lực và ảnh khỏa thân

Nghiên cứu của Facebook cho thấy những người dùng có trình độ kỹ năng kỹ thuật số thấp có nhiều khả năng nhìn thấy hình ảnh bạo lực và ảnh khoả thân ở biên giới trong Bảng tin của họ.

Nghiên cứu cho thấy những người bị tổn hại nhiều nhất bởi hàng loạt các bài đăng gây rối là Da đen, người già và thu nhập thấp, trong số các nhóm dễ bị tổn thương khác. Nó cũng cho biết Facebook cũng đã tiến hành nhiều cuộc phỏng vấn sâu và thăm nhà với 18 người trong số những người dùng này trong vài tháng. Các nhà nghiên cứu phát hiện ra rằng việc tiếp xúc với nội dung đáng lo ngại trong nguồn cấp dữ liệu của họ khiến họ ít sử dụng Facebook hơn và làm trầm trọng thêm những tổn thương và khó khăn mà họ đã phải trải qua.

Các nhà nghiên cứu phát hiện ra: Một người đàn ông 44 tuổi đang trong tình trạng tài chính bấp bênh đã theo dõi các trang Facebook đăng các phiếu giảm giá và tiết kiệm và bị tấn công bởi các bài đăng lừa đảo tài chính của những người dùng không rõ nguồn gốc. Một người đã sử dụng một nhóm Facebook cho Narcotics Anonymous và tổng cộng chiếc xe của anh ta đã được hiển thị quảng cáo đồ uống có cồn và các bài đăng về xe hơi để bán. Người da đen liên tục được cho thấy những hình ảnh bạo lực thể xác và sự tàn bạo của cảnh sát.

Ngược lại, các bài đăng căm thù ở biên giới xuất hiện thường xuyên hơn nhiều trong nguồn cấp dữ liệu của những người dùng có trình độ kỹ thuật số cao. Trong khi người dùng có trình độ kỹ thuật số thấp không thể tránh được ảnh khỏa thân và hình ảnh bạo lực trong nguồn cấp dữ liệu của họ, thì nghiên cứu đề xuất những người có kỹ năng kỹ thuật số tốt hơn sử dụng chúng để tìm kiếm nội dung đầy thù hận một cách hiệu quả hơn.

Hạn chế nội dung có hại

Các tài liệu cho thấy các nhà nghiên cứu của công ty đã thử nghiệm nhiều cách khác nhau để giảm lượng thông tin sai lệch và nội dung có hại cho người dùng Facebook.

Các thử nghiệm bao gồm các bản sửa lỗi kỹ thuật đơn giản sẽ làm giảm hạng nội dung lan truyền tiêu cực, giật gân hoặc nhằm kích động sự phẫn nộ.

Vào tháng 4 năm 2019, các quan chức của công ty đã tranh luận về việc làm giảm mức độ lan truyền của thông tin sai lệch bằng cách hạ cấp "lượt chia sẻ lại sâu sắc" của nội dung mà người đăng không phải là bạn bè hoặc người theo dõi của người đăng ban đầu.

Facebook phát hiện ra rằng người dùng gặp các bài đăng cách bài đăng gốc nhiều hơn hai lượt chia sẻ lại có nguy cơ nhìn thấy thông tin sai lệch cao gấp bốn lần.

Bằng cách hạ cấp nội dung đó, Facebook sẽ “dễ dàng mở rộng và có thể bắt được vô số thông tin sai lệch”, một nhân viên viết. “Mặc dù chúng tôi không nghĩ rằng nó có thể thay thế cho các cách tiếp cận khác để giải quyết thông tin sai lệch, nhưng nó tương đối đơn giản để mở rộng quy mô trên các ngôn ngữ và quốc gia”.

Các tài liệu khác cho thấy Facebook đã triển khai thay đổi này ở một số quốc gia - bao gồm Ấn Độ, Ethiopia và Myanmar - vào năm 2019, nhưng không rõ liệu Facebook có mắc kẹt với cách tiếp cận này trong những trường hợp này hay không.

►Bạn gắn bó với Facebook ?:Đây là cách hủy kích hoạt hoặc xóa vĩnh viễn tài khoản Facebook của bạn

► 'Lợi ích trước mọi người':Sau khi người tố cáo Facebook Frances Haugen lập luận về trường hợp của cô ấy, liệu Quốc hội có hành động?

Làm thế nào để kiểm soát các quốc gia có nguy cơ

Facebook biết về những tác hại tiềm ẩn từ nội dung trên nền tảng của mình ở các quốc gia có nguy cơ nhưng không có biện pháp kiểm duyệt hiệu quả - từ việc sàng lọc trí tuệ nhân tạo của chính mình hoặc từ các nhân viên xem xét các báo cáo về nội dung có khả năng vi phạm, các tài liệu cho thấy.

Một tài liệu khác, dựa trên dữ liệu từ năm 2020, đưa ra các đề xuất thay đổi việc kiểm duyệt nội dung bằng tiếng Ả Rập để “cải thiện khả năng của chúng tôi để vượt qua các sự kiện nguy hiểm, các vụ cháy PR và các vấn đề về tính liêm chính ở các Quốc gia có rủi ro ưu tiên cao, thay vì chơi trò bắt hướng lên."

Một nhân viên của Facebook đã đưa ra một số đề xuất, hồ sơ cho thấy, bao gồm cả việc thuê các cá nhântừ các quốc gia ít đại diện. Vì phương ngữ có thể khác nhau tùy theo quốc gia hoặc thậm chí khu vực, nhân viên này đã viết, những người đánh giá có thể không được trang bị để xử lý các báo cáo từ các phương ngữ khác. Trong khi tiếng địa phương của Maroc và Syria được trình bày tốt trong số những người đánh giá của Facebook, thì tiếng Libya, Ả Rập Saudi và Yemen lại không.

“Với quy mô của cơ sở người dùng Ả Rập và mức độ nghiêm trọng tiềm ẩn của tác hại ngoại tuyến ở hầu hết mọi quốc gia Ả Rập - vì mọi quốc gia Ả Rập bảo vệ Tây Sahara đều nằm trong danh sách Các quốc gia có nguy cơ và phải đối phó với các vấn đề nghiêm trọng như khủng bố và buôn bán tình dục - đó là nhân viên này viết.

Một tài liệu từ cuối năm 2020 đã lấy mẫu hơn 1.000 báo cáo về ngôn từ kích động thù địch gửi cho Facebook ở Afghanistan, phát hiện ra những khiếm khuyết trong mọi thứ, từ độ chính xác của bản dịch sang các ngôn ngữ địa phương theo tiêu chuẩn cộng đồng cho đến quy trình báo cáo. (Afghanistan không được Facebook liệt kê trong số ba cấp quốc gia có nguy cơ trong một tài liệu mà Haugen thu thập trước khi cô rời đi vào tháng 5, tức là trước khi Hoa Kỳ rút quân.)

Báo cáo cho thấy trong một bộ dữ liệu kéo dài 30 ngày, 98% lời nói căm thù đã bị xóa theo phản ứng trước các báo cáo, trong khi chỉ 2% được Facebook chủ động xóa.

Tài liệu khuyến nghị Facebook cho phép nhân viên tại thị trường Afghanistan xem xét các bộ phân loại của mình để tinh chỉnh chúng và thêm các bộ phân loại mới.

Nó cho biết: “Điều này đặc biệt quan trọng do khả năng phát hiện nội dung Lời nói căm thù bằng cách tự động hóa thấp hơn đáng kể.

Nền tảng cho phép buôn người

Facebook nhận thấy rằng nền tảng của họ “cho phép cả ba giai đoạn của vòng đời khai thác con người” - tuyển dụng, tạo điều kiện và khai thác - thông qua các mạng phức tạp trong thế giới thực, theo các tài liệu nội bộ.

Mặc dù các tiêu chuẩn cộng đồng đối mặt với công chúng của Facebook tuyên bố công ty xóa nội dung tạo điều kiện cho con người khai thác, các tài liệu nội bộ cho thấy họ đã không làm được điều đó.

Facebook đã điều tra vấn đề trong nhiều năm, đề xuất các thay đổi về chính sách và kỹ thuật để giúp chống lại việc khai thác trên nền tảng của mình, hồ sơ cho thấy. Nhưng không rõ liệu những thay đổi đó có được thông qua hay không. Theo các tài liệu nội bộ, trong ít nhất một trường hợp, Facebook đã hủy kích hoạt một công cụ chủ động phát hiện việc khai thác.

Vào tháng 10 năm 2019, được thúc đẩy bởi một cuộc điều tra của BBC, Apple đã đe dọa xóa Facebook và Instagram khỏi cửa hàng ứng dụng của mình vì họ phát hiện thấy nó có nội dung quảng cáo nô lệ giúp việc gia đình, một tội ác trong đó một người giúp việc gia đình bị mắc kẹt trong công việc của mình, bị lạm dụng và hoặc bị trả lương thấp. hoặc hoàn toàn không được trả tiền. Một tài liệu nội bộ cho thấy Facebook đã biết về vấn đề này trước khi có cảnh báo của Apple.

Để đối phó với mối đe dọa của Apple, Facebook đã tiến hành xem xét và xác định hơn 300.000 mẩu nội dung có khả năng vi phạm trên Facebook và Instagram, hồ sơ cho thấy. Nó đã thực hiện hành động trên 133.566 mục và chặn các thẻ bắt đầu bằng # vi phạm.

Đóng góp: Mike Snider


Chúc các bạn đọc tin keo ty le bong da hom nay vui vẻ!

Original text