Esta es la razón por la que no existirá un emoji de rifle

Se perdió un arma de fuego y Apple podría ser el responsable.

El emoji de rifle no estará incluido en la actualización de Unicode 9.0 a ser liberada el 21 de junio. El arma estaba enlistada como candidata junto con ilustraciones para selfie, hombros arriba, tambor y un payaso inquietante.

La decisión de eliminar el rifle se tomó en una reunión de Unicode Consortium en mayo. Apple y Microsoft pelearon en su contra, de acuerdo con el reportero Charlie Warzel de Buzzfeed quien cuenta con las primicias de Unicode. De acuerdo con la fuente de Warzel, Apple fue la primera empresa en sugerir su eliminación y dijo que no lo incluiría en sus sistemas operativos.

También fue eliminado un emoji llamado “pentatlón moderno” que muestra a un hombre disparando una pistola.

Apple y Microsoft no respondieron inmediatamente a la petición de comentarios.

El consorcio es el cuerpo rector a cargo de los estándares de los cada vez más populares emojis. Éste determina qué nuevas imágenes se añaden y luego permite el soporte de los caracteres por distintos sistemas operativos y servicios. Apple y Microsoft son miembros del grupo, que también incluye a Google, Facebook y Yahoo.

El emoji del rifle estaba pensado como parte de una colección de imágenes relacionadas con las Olimpiadas. Los deportes de tiro están incluidos en los juegos. Sin embargo, hubo objeciones inmediatamente hacia el arma, incluyendo a un grupo de control de armas del Reino Unido. Las armas y el control de ellas son temas tensos y las empresas de tecnología puede que estén intentando evitar cualquier controversia. Ya existe un emoji de una pistola, para cualquiera que en verdad necesite discutir sobre armas de fuego con pequeñas caricaturas.

Un miembro de Unicode que estaba presente en la reunión dijo a Buzzfeed que la decisión muestra que las grandes empresas de tecnología “se están dando cuenta qué tan importantes son estos emojis”.

from expansion.mx http://ift.tt/28LAeef
via IFTTT

¿Por qué Facebook no baja el video de un asesinato en vivo?

La semana pasada, el asesinato de un hombre de 28 años en Chicago fue capturado mientras hacía una transmisión en vivo en Facebook. Un minuto, el hombre estaba transmitiendo en Live a sus amigos, y al siguiente, solo se escuchaban balazos y gritos.

Él recibió un disparo el miércoles por la noche y Facebook aún no ha retirado el video de su plataforma, lo que nos obliga a preguntar: ¿Por qué no?

De acuerdo con Facebook, el video no viola los estándares de su comunidad pues no considera que el video celebre la violencia. Considera que cae dentro de otra categoría: Crear consciencia. En lugar de quitar ese tipo de videos, son etiquetados con una advertencia al usuario.

Es una línea delgada. Cuando un simpatizante de ISIS asesinó a un comandante de policía y lo transmitió en vivo a principios de la semana, se retiró el video.

Los estándares de comunidad de Facebook se dividen en ocho categorías incluyendo ataques a figuras públicas, bullying y acoso, violencia sexual y bienes regulados. Pero exactamente qué permite y cuándo no es tan claro.

Los estándares de comunidad afirman que “buscan encontrar el balance” para mantener seguros a sus usuarios, motivar el comportamiento respetuoso, reconocer la diversidad cultural y empoderar a las personas a controlar lo que ven en su feed.

Pero a la vez que mostrar el video de un asesinato está bien de acuerdo con los estándares de Facebook, mostrar un pezón no lo está. La empresa sí permite, sin embargo, fotos de mujeres que muestran las cicatrices después de una mastectomía o dando pecho. Aunque esto no fue siempre así.

Antes de 2014, las mamas se quejaban de que sus fotografías dando pecho eran removidas. En el 2014, Facebook añadió más contexto a su política para permitir este tipo de imágenes no-sexuales. Esto fue gracias en parte a un movimiento hashtag llamado #FreeTheNipple que llamó la atención a la prohibición de la desnudez femenina en sitios como Instagram y Facebook. Facebook permite desnudos en pinturas, esculturas y arte, pero a veces lo entiende mal.

Por ejemplo, Lee Rowland del ACLU dijo en marzo que le retiraron una publicación porque contenía la imagen de una estatua desnuda. La directora de gestión de políticas Mónica Bickert dijo que esto de hecho no violaba las políticas de Facebook y era tan sólo un error.

Del mismo modo, cuando la artista Illma Gore publicó una foto de Donald Trump con un pene pequeño, fue removida. Los estándares de comunidad de Facebook permiten arte al desnudo publicado por “propósitos educativos, humorosos o satíricos”. De acuerdo con Facebook, esto también fue un error y fue restituido.

Facebook dibuja una gruesa línea sobre vender medicamentos con receta, marihuana, fuegos artificiales o municiones, las cuales dice que están prohibidas en su plataforma. Pero puedes publicar fotos de ti fumando marihuana con una pipa.

Facebook, como otras comunidades en línea, depende de una mezcla de reportes de usuarios y moderación interna para señalar el contenido inapropiado o ilegal. Esto significa que Facebook tiene 1.65 mil millones de personas ayudando a mantener sus estándares, pero lo que se considera “aceptable” no es universal.

from expansion.mx http://ift.tt/28KaFbZ
via IFTTT