Select Page

Se ven también posibilidades de explorar la aplicación de Big Data a nuevos dominios de datos, ya que actualmente se han concentrado en social media, medicina, bioinformática y seguridad, principalmente. En esta sección se presenta la exploración de algunos trabajos que presentan una visión general de las tendencias y enfoques en el desarrollo de investigaciones en el campo de Big Data. 2, si se revisa según el tipo de recurso, se ve una marcada tendencia hacia los artículos de conferencia, con un total de 9.493 resultados.

  • La parte central, la “plataforma de minería de Big Data” (nivel I), que se enfoca en el acceso a los datos de bajo nivel y computación.
  • Los análisis de big data son una herramienta que puede servir para impulsar la promoción y protección de los derechos humanos, como lo manifiestan las Naciones Unidas a través de su estudio Macrodatos para el desarrollo sostenible (ONU, s/f), pero que también puede ser utilizada para vulnerar esos mismos derechos, por lo que debe ser regulada de manera puntual.
  • Además, se consiguió alcanzar la meta de elaborar un registro documental haciendo uso de buscadores como Science Direct, IEEE Explore, Emerald, Oxford University Press, Springer y Google Académico, principalmente.
  • En el caso de los análisis de grandes cúmulos de datos, cada Estado que conforma la sociedad internacional ha optado por regular temas relativos a esta técnica de análisis, centrándose principalmente en proteger la privacidad de las personas y la manera en que se tratan los datos personales.
  • Si vuestro objetivo es manteneros al día de los últimos acontecimientos y estar en primera final, no puedes dejar de revisar estas publicaciones académicas.

Aunque no existe una definición formal del término, su uso se refiere a grandes cantidades de datos o información digital que requiere equipos de cómputo de alto rendimiento y programas o técnicas de análisis especializadas para su procesamiento e interpretación. Su gran atractivo es que permite obtener relaciones, patrones y resultados, que no son accesibles mediante otras metodologías (Oficina de Información Científica https://hashnode.com/@oliver25f4r y Tecnológica para el Congreso de la Unión, 2018, p. 1). Esta doble incapacidad paradigmática puede ser una ocasión para explorar otras formas de conceptualizar, no solo la esencia del objeto de estudio al que llamamos lo global, sino también las propuestas metodológicas cuya finalidad es encontrar formas más precisas de aprehender este fenómeno y explicarlo de manera rigurosa, congruente y consistente.

Big Data

Un buen ejemplo de esto es el uso de cuentas falsas para incidir en las opiniones y formas de pensar de las personas, la censura, la limitación de la libertad de expresión, y la segregación o promoción del racismo. Muchas de las leyes nacionales que han creado los Estados latinoamericanos en la materia de la protección de datos han seguido estándares internacionales que han dictado tanto la Unión Europea (Maqueo et al., 2017, p. 78) como los Estados Unidos, ambos sistemas jurídicos con una visión diametralmente opuesta en lo que respecta al tema. Así, en cuanto a la normatividad en torno a la protección de datos personales, intervienen una pluralidad de actores como son el dueño del dato, el responsable del tratamiento de los datos, el encargado de este tratamiento y, por supuesto, el destinatario de los datos personales, siendo cada uno de ellos pieza clave en el tema de los análisis de grandes cúmulos de datos (Cubillos, 2017, pp. 41-42).

Algunas de sus principales aplicaciones prácticas se enmarcan en la realización de clúster de documentos, recomendaciones y organización de contenidos [32]. El machine learning o aprendizaje máquina es el trasfondo principal de Mahout y corresponde a un subcampo de la inteligencia artificial que se centra en el mejoramiento de procesamientos computacionales a partir del análisis de experiencias previas. Grant Ingersoll en [33] presenta una descripción de algunos de los más recientes algoritmos implementados en Mahout, resumiéndolos en la Tabla 3, la cual se presenta a continuación. Otra de las bases de Big https://www.kniterate.com/community/users/oliver25f4rr/ Data es la computación en la nube o cloud computing logrando que los desarrolladores ya no requieran de grandes inversiones en hardware, la elasticidad de recursos sin necesidad de pagar por servicios Premium de gran escala es un hito fundamental en la historia de las tecnologías de la información. Se auguró el crecimiento de cloud computing independientemente de si los servicios adquiridos son a bajo o alto nivel de abstracción. Se afirma que el almacenamiento, cómputo y las redes deben concentrarse en la escalabilidad horizontal de los recursos virtualizados en lugar del rendimiento de un solo nodo.

¿Qué es y qué hace un Analista de Datos o Big Data Analyst?

En Europa, la situación es diametralmente diferente, pues desde el 25 de mayo de 2018 está en vigor el Reglamento General de Datos Personales ENT#091;…ENT#093; que establece medidas en favor de los usuarios, como son los derechos al consentimiento expreso, a retractarse, al olvido, a la rectificación, a conocer qué datos tienen las empresas y cómo los usan, entre otros ENT#091;…ENT#093; (Calcaneo, 2019, p. 40). En suma, aunque exista la percepción de que estos datos masivos están siendo subutilizados y no se está obteniendo el beneficio que podrían ofrecer47, resulta relevante también que se reflexione sobre sus riesgos y limitaciones, para así estimular una investigación cien tífica con una cultura ética del uso de la información personal de sujetos que pueden ser titulares de derechos48. La seguridad https://willysforsale.com/author/oliver25f4r/ y privacidad de los registros médicos son algunas de las inquietudes que surgen en relación al uso de datos personales con otros fines que no sean para lo cual fueron registrados. Es así como el consen timiento informado de los propietarios de los datos surge como un elemento importante, pero también se advierte sobre la relevancia de definir qué se enten derá por datos personales40. Por esto y otras razones, la Unión Europea (UE) ya ha tomado precauciones, mediante un reglamento de protección de las personas con relación al tratamiento de datos personales y a la libre circulación41. Sin embargo, se acepta que se trata del “estudio científico de la creación, validación y transformación de datos para crear significado”, es decir, la ciencia que permite extraer valor y conocimiento de los datos.

  • A diferencia de la estadística tradicional donde “la idea era estimar el modelo (…) propuesto por una teoría o tal vez por la experiencia previa” (el modelo es externo), el machine learning “permite construir, estimar y reevaluar el modelo a medida que se lo usa.
  • Como se ha venido comentando, el tratamiento de Big Data ha exigido el desarrollo de soluciones computacionales que permitan afrontar las necesidades y retos que traen consigo los grandes volúmenes de datos, su variedad de fuentes y la velocidad con que se generan.
  • Por una parte, encontramos a los países que poseen riquezas naturales, entre estas minerales raros (litio o coltán, por mencionar algunos) necesarios para la fabricación de herramientas tecnológicas como los teléfonos inteligentes y las computadoras; por otro lado, se encuentran los países productores de tecnología; y, finalmente, tenemos a aquellos países que son solo importadores de tecnologías, entre los cuales se ubican varios países de América Latina.
  • Mientras que Big Data hace referencia al almacenaje y procesamiento, por su parte, la IA es un área de las Ciencias de la Computación que se encarga del diseño de sistemas inteligentes, y se refiere a algoritmos que buscan simular las capacidades de inteligencia del cerebro humano (Ocaña et al., 2019).
  • Es el caso de CA, una empresa dedicada al tratamiento de datos que son vendidos a empresas y políticos para modificar el comportamiento de audiencias.
  • No hay que pasar por alto que para una adecuada protección de los derechos humanos se requiere de una prevención ex ante, es decir, previa a que acaezcan las violaciones; y que, en cambio, el uso de los grandes cúmulos de datos requiere de un lapso de tiempo para recolectarlos y así detectar violaciones a los derechos.

Además, «Si las empresas determinan que han provocado o contribuido a provocar consecuencias negativas deben repararlas o contribuir a su reparación por medios legítimos» (2011, p. 28). Tómese como ejemplo la Armada Electrónica Siria, que en 2011 utilizó cuentas de Facebook falsas, software de monitoreo y virus informáticos (como troyanos y malware) cuyo objetivo era conocer las prácticas de los disidentes del Gobierno (Nersessian, 2018, p. 848). El uso de grandes cantidades de datos es mucho más que una herramienta útil para la toma de decisiones, pues considera que el contar con esa metodología y esas técnicas de investigación del análisis de datos proporciona una visión única, dependiendo del contexto en el que se lleve a cabo, como en la política, la ciencia o los negocios. No obstante, la cuestión es que en esta cadena de suministro de datos existen diversos participantes, que van desde las personas que proporcionan la información, las autoridades o las empresas que recolectan los datos, hasta las personas que van a diseñar los algoritmos para que el cúmulo de información prevea un significado; es decir, que se interpreten los datos (Nersessain, 2018, p. 849). El problema que se desprende del uso del análisis de macrodatos es que, actualmente, las normas jurídicas no impiden que se dé un manejo poco ético e inclusive ilícito en la captación, gestión y procesamiento de los datos de los individuos que utilizan los medios digitales (2018, p. 848).