viernes, 4 de abril de 2014

Técnicas de estimación de casos de uso


Aunque la estimación es más un arte que una ciencia, es una actividad importante que no debe llevarse a cabo de forma descuidada. Existen técnicas útiles para la estimación de costes y de tiempos. Y dado que la estimación es la base de todas las demás actividades de planificación del proyecto y sirve como una guía para una buena ingeniería del software, no es en absoluto aconsejable embarcarse sin ella. 
El objetivo de la Estimación es predecir las variables involucradas en el proyecto con cierto grado de certeza. Se trata de aportar una predicción de algún indicador importante para la gestión de proyectos de software: tiempo, esfuerzo, cantidad de defectos esperados, entre otros, sin dejar de tener en cuenta que la incertidumbre y el riesgo son elementos inherentes.
En la actualidad son muchos los proyectos que fracasan e incumplen sus plazos de entrega. Según el The Standish Group en su publicación Chaos Report 2009, determinó que el 24% de los proyectos informáticos fueron cancelados, solo el 32 % terminaron a tiempo y dentro del presupuesto y el 44% de los proyectos de software fueron concluidos después de la fecha estimada.
Son muchos los métodos de estimación del esfuerzo que existen en la actualidad: SLIM, COCOMO II, Juicio Experto, Analogía, algunos basados en técnicas estadísticas e Inteligencia Artificial que se basan en datos históricos para inferir el esfuerzo de nuevos proyectos.
El objetivo de este trabajo es describir el método de estimación basado en Puntos de Casos de Uso a través de un caso práctico y mostrar las ventajas y desventajas del mismo.
El método escogido se acopla con la metodología más usada hasta nuestros días, la metodología RUP (Proceso Unificado de Rational), esta metodología se basa en la identificación de los casos de uso, encargados de dirigir el proceso y la técnica escogida toma como punto de partida estos elementos.
DESARROLLO

Planificación basada en casos de uso

Este método de estimación de proyectos de software fue desarrollado en 1993 por Gustav Karner de Rational Software y está basado en una metodología orientada a objetos, dándole el nombre de "estimación de esfuerzos con casos de uso". Surgió como una mejora al método de puntos de función pero basando las estimaciones en el modelo de casos de uso, producto del análisis de requerimientos. Según su autor, la funcionalidad vista por el usuario (modelo de casos de uso) es la base para estimar el tamaño del software. [2]
Un caso de uso por sí solo no permite efectuar una estimación de esfuerzos ni de tiempos, los casos de uso son solamente herramientas para el análisis. La idea fundamental es predecir el tamaño del software a partir de los requerimientos de los casos de uso.
El objetivo fundamental de esta técnica es: Estimar las horas necesarias para ejecutar un conjunto de casos de uso. Es decir, necesitamos predecir cuánto tiempo llevará el desarrollo de software y cuántas personas se requieren para realizarlo. Para ello, es necesario cuantificar la complejidad del sistema y el tiempo necesario para producir una unidad de complejidad.
En etapas tempranas del ciclo de vida, se identifican los Actores y los Casos de Uso del sistema, y se documenta cada uno de ellos mediante una breve descripción. Aplicando el Análisis de Puntos de Función a estos Casos de Uso, se podrá obtener una estimación grosera del tamaño y a partir de ella del esfuerzo. Esta estimación es bastante imprecisa debido principalmente a la escasa información que se tiene sobre el software al principio de un proyecto, pero permitirá obtener una idea del esfuerzo necesario para llevar adelante el mismo, y podrá ser refinada a medida que se obtenga más.
El ejemplo práctico a través del cual se describirá el método consiste en una aplicación Web para la gestión de información telefónica, de reportes de averías, y de estadísticas de los estados de los teléfonos de un Centro de Educación Superior (CES). Actualmente este proceso se realiza manualmente, provocando dificultades en la organización y control de la información referente a los equipos telefónicos y a sus respectivos usuarios. La aplicación es desarrollada en la plataforma .Net, con lenguaje C#. A continuación se presentan los actores y casos de uso identificados.
Monografias.com

Técnicas de Estimación


https://www.youtube.com/watch?v=SRwwTLfcgsE

Técnicas de Estimación

Cuando se planifica un proyecto se tienen que obtener estimaciones del esfuerzo humano requerido, de la duración cronológica del proyecto y del costo.
En la mayoría de los casos las estimaciones se hacen valiéndose de la experiencia pasada como única guía. Aunque en algunos casos puede que la experiencia no sea suficiente.
Técnicas de Estimación de Costo y Esfuerzo
Estas técnicas de estimación son una forma de resolución de problemas en donde, en la mayoría de los casos, el problema a resolver es demasiado complejo para considerarlo como una sola parte. Por esta razón, descomponemos el problema, recaracterizándolo como un conjunto de pequeños problemas.
Líneas de Código y Puntos de Función.
Los datos de líneas de código (LDC) y los puntos de función (PF) se emplean de dos formas durante la estimación del proyecto de software:
  • Variables de estimación, utilizadas para calibrar cada elemento del software.
  • Métricas de base, recogidas de anteriores proyectos utilizadas junto con las variables de estimación para desarrollar proyecciones de costo y esfuerzo.
Estas técnicas son diferentes pero tienen características comunes. El planificador del proyecto comienza con una declaración restringida del ámbito del software y, a partir de esa declaración, intenta descomponer el software en pequeñas subfunciones que pueden ser estimadas individualmente. Entonces, estima las LDC o PF (la variable de estimación) para cada subfunción. Luego, aplica las métricas básicas de productividad a la variable de estimación apropiada y deriva el costo y el esfuerzo para la subfunción. Combinando las estimaciones de las subfunciones se produce la estimación total para el proyecto entero.
Difieren en el nivel de detalle que requiere la descomposición. Cuando se utiliza LDC como variable de estimación, la descomposición funcional es absolutamente esencial y, a menudo, se lleva hasta considerables niveles de detalle. Debido a que los datos requeridos para estimar los Puntos de Función son más macroscópicos, en nivel de descomposición al que se llega cuando PF es la variable de estimación es considerablemente menos detallado. También, debe de tenerse en cuenta que mientras que LDC se estima directamente, PF se determina indirectamente mediante la estimación del número de entradas, salidas, archivos de datos, peticiones e interfaces externas, entre otras.
Independientemente de la variable de estimación que use, el planificador del proyecto, normalmente, proporciona un rango de valores para cada función descompuesta. A partir de los datos históricos o (cuando todo lo demás falla) usando su intuición, el planificador estima los valores optimista, más probable y pesimista de LDC o de PF para cada función. Cuando lo que se especifica es un rango de valores, implícitamente se proporciona una indicación del grado de incertidumbre.
Entonces, se calcula el valor esperado de LDC o de PF. El valor esperado para la variable de estimación, E, se obtiene como una medida ponderada de las estimaciones LDC o PF óptima (a), más probable (m) y pesimista (b).
Por ejemplo:
E = a + 4m + b
6
da una mayor credibilidad a la estimación más probable y sigue una distribución de probabilidad beta.
Técnicas Delfi.
Las técnicas delfi fueron desarrolladas en la corporación Rand en el año de 1948, con el fin de obtener el consenso de un grupo de expertos sin contar con los efectos negativos de las reuniones de grupos. La técnica puede adaptarse a la estimación de costos de la siguiente manera:
  • Un coordinador proporciona a cada experto la documentación con la definición del sistema y una papeleta para que escriba su estimación.
  • Cada experto estudia la definición y determina su estimación en forma anónima; los expertos pueden consultar con el coordinador, pero no entre ellos.
  • El coordinador prepara y distribuye un resumen de las estimaciones efectuadas, incluyendo cualquier razonamiento extraño efectuado por alguno de los expertos.
  • Los expertos realizan una segunda ronda de estimaciones, otra vez anónimamente, utilizando los resultados de la estimación anterior. En los casos que una estimación difiera mucho de las demás, se podrá solicitar que también en forma anónima el experto justifique su estimación.
  • El proceso se repite varias veces como se juzgue necesario, impidiendo una discusión grupal durante el proceso.
El siguiente enfoque es una variación de la técnica Delfi tradicional que aumenta la comunicación conservando el anonimato.
  • El coordinador proporciona a cada experto la documentación con la definición del sistema y una papeleta para que escriba su estimación.
  • Cada experto estudia su definición, y el coordinador llama a una reunión del grupo con el fin de que los expertos puedan analizar los aspectos de la estimación con él y entre ellos.
  • Los expertos terminan su estimación en forma anónima.
  • El coordinador prepara un resumen de las estimaciones efectuadas sin incluir los razonamientos realizados por algunos de los expertos.
  • El coordinador solicita una reunión del grupo para discutir los puntos donde las estimaciones varíen más.
  • Los expertos efectúan una segunda ronda de estimaciones, otra vez en forma anónima. El proceso se repite tantas veces como se juzgue necesario.
COCOMO.
El Modelo Constructivo de Costos (COnstructive COst Model) es una jerarquía de modelos de estimación para el software. Esta jerarquía está constituida por los siguientes modelos:
  • El modelo COCOMO básico es un modelo univariable estático que calcula el esfuerzo (y el costo) del desarrollo de software en función del tamaño del programa expresando en líneas de código (LDC) estimadas.
  • El modelo COCOMO intermedio calcula el esfuerzo del desarrollo de software en función del tamaño del programa y de un conjunto de “conductores de costo”, que incluyen la evaluación subjetiva del producto, del hardware, del personal y de los atributos del proyecto.
  • El modelo COCOMO avanzado incorpora todas las características de la versión intermedia y lleva a cabo una evaluación de impacto de los conductores de costo en cada fase (análisis, diseño, etc.) del proceso de ingeniería de software.
Los modelos COCOMO están definidos para tres tipos de proyecto de software.
Modelo Orgánico. Proyectos de software relativamente pequeños y sencillos en los que trabajan pequeños equipos, con buena experiencia en la aplicación, sobre el conjunto de requisitos poco rígidos (por ejemplo, un programa de análisis termal desarrollado para un grupo calórico).
Modelo Semiacoplado. Proyectos de software intermedios (en tamaño y complejidad) en los que los equipos, con variados niveles de experiencia, deben satisfacer requisitos poco o medio rígidos (por ejemplo, un sistema de procesamiento de transacciones con requisitos fijos para un hardware de terminal o un software de gestión de base de datos).
Modelo Empotrado. Proyectos de software que deben ser desarrollados en un conjunto de hardware, software y restricciones operativas muy restringidas (por ejemplo, software de control de navegación para un avión).
Las ecuaciones del modelo COCOMO básico tienen la siguiente forma:
E = ab (KLDC) exp (bb)
D = cb (E) exp (db)
donde E es el esfuerzo aplicado en personas-mes, D es el tiempo de desarrollo en meses cronológicos y KLDC es el número estimado de Líneas de Código distribuídas (en miles) para el proyecto.
Las ecuaciones del modelo COCOMO intermedio toma la forma:
E = ai (KLDC) exp (bi) x FAE
donde E es el esfuerzo aplicado en personas-mes, KLDC es el número estimado de Líneas de Código distribuídas para el proyecto

viernes, 21 de febrero de 2014

Infoxicación

Vídeo Infoxicación

http://www.youtube.com/watch?v=hiYdXJmQvsc
Todos los días tengo una conversación con algún cliente que me dice, Ramón no puedo mas, cada vez que intento obtener información sobre mi industria o algún mercado nuevo me pasa lo mismo, no paro de recibir documentos, boletines, informes y noticias desde distintas fuentes y no soy capaz de leer más allá del titular…¿como voy a tomar decisiones acertadas si soy incapaz de estar al día?
El diagnostico es siempre el mismo, el cliente sufre de infoxicación aguda causada por google, twitter, linkedin, facebook etc…y otras muchas fuentes que consulta o informaciones que le llegan a su correo electrónico o escritorio.

EL PROBLEMA DE LA INFOXICACION

Lo cierto es que el problema de la infoxicación no es nuevo en el mundo en el que vivimos desde que Internet se generalizo. Es algo que simplemente ha ido a mas y en el futuro aumentará. Este es el verdadero problema de la infoxicación, que cada vez se agudiza más, dado que cada vez es mas fácil la divulgación de contenidos y la creación de estos, resulta que cada día es mas difícil mantenerse al día, por el volumen y la velocidad de circulación de la nueva información.
Esto solo es un aperitivo de lo que va ir llegando. Gracias al open data cada vez más, dispondremos de mas aplicaciones que utilizarán datos liberados por las administraciones públicas que harán que podamos acceder a más informaciones. ¿Las vas a ignorar solo por que no puedes leerlas? La mayoría de las veces la respuesta es un si. La técnica del avestruz es muy socorrida entre los humanos. Esto supone ignorar el problema y los riesgos que esto conlleva en vez de aprovechar la oportunidad. En muchas organizaciones no se tiene en cuenta los costes reales de la infoxicacion. Veamos cuales son estos.

LOS COSTES DE LA INFOXICACION

Infoxicacion o reducción de la productividad

¿Cuanto tiempo destinas al día para buscar y leer los títulos de los avisos en tu buzón de correo electrónico, boletines, revistas y bases de datos?. Seguro que estas pensando y te sale como mínimo una hora. Piensa que este es el tiempo medio que una persona dedica al día en su puesto de trabajo para estar al día de los cambios que suceden en su industria. Ahora multiplica esto por el numero de empleados en plantilla, luego por cinco días laborables, después por 4 semanas y finalmente por 11 meses de trabajo efectivo. Esto te dará un calculo aproximado del tiempo que tu organización destina a actualizarse con información que en el mejor de los casos es la adecuada, pero lo más probable es que no sea la mejor posible. Piensa ahora que a parte de esto cada vez existen más fuentes de información y más información a la que acceder. Lo cierto es que empezamos a marearnos. Lo lógico es que intentemos no detenernos demasiado en el problema por que haciendo los cuentas del tiempo y multiplicando por 20€ (el coste medio de un empleado por hora) la cifra es bastante importante.

Coste de oportunidad derivado de la infoxicacion

A parte del coste económico y mental que supone buscar información con la sensación de no estar consiguiendo mantenerte al día y saber que se te están pasando cosas por que cada vez hay más información, es necesario considerar el coste de oportunidad que esto supone para nuestra empresa. Es decir aquello que estoy dejando de hacer por destinar tantas horas a buscar y leer información pero sobre todo por las informaciones que me puedo estar perdiendo, por no ser capaz de leer la información relevante y que mis competidores si pueden estar obteniendo.

SOLUCION A LA INFOXICACION

Los que seguis este blog sabeis cual es la respuesta al problema de la Infoxicacion: Los sistemas de vigilancia e inteligencia competitiva. A los cuales dedico buena parte de mi actividad profesional y empresarial, dado que la mayoría de las soluciones de mi empresa están orientadas a ello. Para los que no estáis tan familiarizados con este concepto podéis consultar aqui algunos de los artículos sobre estos temas:

  1. La importancia de obtener información relevante
  2. Siete ventajas de contar con un sistema de vigilancia tecnológica
  3. Los cinco pilares de la vigilancia tecnológica
  4. Buscando información en 7 minutos artículo 1artículo 2 y artículo 3
Los sistemas y metodologías basadas en la vigilancia e inteligencia competitiva resuelven el problema de la infoxicacion por que, permiten realizar una optimizada:
  1. Seleccion de fuentes relevantes
  2. Palabras calves adecuadas
  3. Automatizacion del proceso de captura de la información
  4. Comunicación o distribución de la información a las personas adecuadas
  5. Revisión e inclusión de nuevas fuentes identificadas
Esta es la forma en la que el problema de la infoxicación queda resuelto ya que me permite destinar 5 minutos a la lectura de las informaciones relevantes para mi ya que previamente hemos seleccionado las fuentes y filtrado los resultados de forma automática con la ayuda procesos, herramientas y personas.


About Ramón Archanco: http://papelesdeinteligencia.com/infoxicacion-o-el-problema-del-exceso-de-informacion/#sthash.AIuWbgXT.dpuf

Curador de contenidos

http://www.youtube.com/watch?v=PF1csM9aZmc


Vídeo curador de contenidos
Curador de contenidos

En muchas ocasiones hemos hablado en este mismo espacio de nuevas profesiones nacidas a la sombra del periodismo digital, de las redes sociales…  Probablemente, la más conocida (y también la más demandada) es la de «community manager». Sin embargo, la web 2.0 ha generado otras necesidades que también han dado lugar a nuevas profesiones, quizás no tan conocidas como la anterior, pero no menos importantes. Una de ellas es la de «content curator», cuya traducción literal sería algo así como «curador de contenidos».

Para comprender mejor qué es un «content curator», mejor acudir a lo que dice Dolors Reig, experta en social media, en su blog «El Caparazón»: «De forma más genérica podríamos decir que un «content curator» es un intermediario crítico del conocimiento, es alguien que busca, agrupa y comparte de forma continua lo más relevante (separa el grano de la paja) en su ámbito de especialización. A diferencia de otras profesiones (creador, por ejemplo), su objetivo fundamental es mantener la relevancia de la información que fluye libre o apoyada en herramientas concretas para la creación de entornos informacionales. Como valor competitivo, el de mantener, en última instancia, «a la última» a la empresa/organización que le forme o contrate, en cuanto al conocimiento que ahora es vital para su supervivencia».

Sin embargo, hay quien opina que, realmente, esta labor no es nueva y que no es otra cosa que la que llevan haciendo los documentalistas durante años. Es el caso de Tomás Baiget, director de la revista «El Profesional de la Información», que asegura que «de vez en cuando gente externa (extraña, más bien) a nuestra invisible profesión inventa nuevos nombres para referirse a funciones que ellos acaban de descubrir, sin tener ni idea de que los bibliotecarios-documentalistas las hacemos desde hace muchos años […] Desde hace cosa de un año algunos han descubierto la gran novedad de que, dada la gran cantidad de información que hay por el mundo, se necesita alguien que se dedique a seleccionarla o filtrarla, y decidieron ponerle el nombre de «information curator o data curator».

Así, por ejemplo, la Universidad Carlos III de Madrid está impartiendo un curso de «content curator», y los profesores son todos del departamento de Biblioteconomía y Documentación. Además, en la definición del curso, dejan claro que «las facilidades de la tecnología, junto a una nueva cultura de creación y consumo de la información, están explosionando, de una forma ya inabarcable, el volumen de información que tenemos a nuestro alcance. Por otra parte, encontrar y crear contenido de calidad se ha convertido en una herramienta fundamental en las estrategias del marketing digital. En este ámbito, el «contenido de calidad es el rey», ya que es la «materia prima» necesaria para que las empresas y organizaciones puedan aportar valor y conectar con sus usuarios y clientes a través de los medios sociales. Así, nuevas capacidades, profesiones y herramientas están surgiendo para hacer frente a estas nuevas necesidades. Entre ellas surge con fuerza la curación de contenidos («content curation») y la figura del «content curator» que, como profesional experto en la metodología y herramientas para la selección, filtrado y distribución de contenido digital relevante, está llamado a ser una figura clave de la web 3.0»

Sea como fuere, estaríamos ante una nueva profesión con un gran futuro, máxime si tenemos en cuenta que, según los expertos, en un futuro próximo el contenido de la web se duplicará cada 72 horas. Por tanto, lo dicho. Un filón.

Leer más:  Curador de contenidos por Ángel Valle - La Razón digital  http://www.larazon.es/detalle_hemeroteca/noticias/LA_RAZON_464003/3968-curador-de-contenidos-por-angel-valle#Ttt1FCFQJFtQkGM8

miércoles, 19 de febrero de 2014

Vídeo Infografía

http://www.youtube.com/watch?v=LGE6X6CW820
¿Qué es una infografía?
Una infografía es una forma visual de ofrecer una información, con una presentación esquemática que resume datos y los explica a través de viñetas y gráficos sencillos de asimilar. Suelen tener un formato vertical.
¿Por dónde empezar? El planteamiento de la infografía
Antes de empezar a pensar en la parte técnica de una infografía, es importante plantearla de forma correcta, adaptándola a los destinatarios de la misma y creando así un esquema que permita plasmar la información de la forma más ordenada y coherente posible.
Así, se debe empezar pensando en el planteamiento u objetivo. Qué se quiere comunicar y qué información disponible existe para ello. Es el momento recopilar datos sobre el tema que se va a tratar.
Con la información recopilada, sea a través de una investigación primaria (por ejemplo encuestas) o secundaria (información ya elaborada), se pueden empezar a hacer los primeros bocetos de la infografía.
Es aquí donde se entra de lleno en la parte del diseño. Para empezar trabajando en el boceto se pueden utilizar diferentes alternativas de software gratuitas, desde las más simples incluidas en cualquier ordenador hasta las plataformas que encontramos en Internet enfocadas a la creación de diagramas. Algunos ejemplos válidos son Gliffy.comMock.com oiPlotz.com entre otros.
A diseñar
Ahora que los datos ya están recopilados, y el planteamiento de la infografía así como su esbozo han quedado definidos, es momento de ponerse manos a la obra a construirla, no sin antes recordar algunos aspectos clave. En primer lugar, no pueden olvidarse las fuentes. Estas dan fiabilidad y credibilidad a los datos aportados, aportando más valor a la infografía y por tanto más resultados de éxito si se pretende que se comparta.
También para que la información se pueda entender fácilmente pueden ser útiles los iconos. Hacen la información más amena junto con los gráficos y los colores y no tienen por qué ser una barrera para quienes tengan menos conocimientos básicos, puesto que existen páginas que albergan una gran variedad. Algunos ejemplos son IconArchive.comFindicons.com oIconspedia.com.
A parte de los datos y ya desde un punto de vista de diseño, es importante crear un estilo y mantener una coherencia con los colores utilizados. De esta manera, se puede crear un estilo propio que identifique todas las infografías creadas por un mismo autor, creando algo similar a una imagen de marca aplicada a las infografías. La coherencia entre los colores es fundamental para que el resultado sea óptimo y los datos sean interpretados de manera correcta.
Herramientas para crear infografías
Y ahora llega la parte de puesta en escena. Mientras que para muchos puede parecer la parte más complicada, lo cierto es que podría ser la más sencilla teniendo en cuenta lo tedioso que puede ser llegar a recopilar la información en algunos casos.
Existen herramientas gratuitas a disposición de todos los usuarios dispuestos a crear infografías. Algunas de ellas son:
  1. Google Public Data Explorer: infografías a partir de datos públicos
  2. Hohli: una herramienta para crear gráficos circulares.
  3. Wordle: permite añadir de forma creativa diferentes grupos de palabras.
  4. Visual.ly: una forma sencilla de crear infografías con varios tipos de elementos en un mismo lugar.







viernes, 17 de enero de 2014

                        Conceptos (Normas, Estándares y Calidad)


Calidad


¿Qué es calidad?

R.W. Hoyer y Brooke B.Y. Hoyer Tomado de la revista Quality Progress Julio, 2001 Reproducción autorizada por ASQ Si usted camina a través de una planta manufacturera o de ensamble en cualquier parte del mundo, verá lotes de partes que, excepto por diferencias muy pequeñas, son idénticas. Las partes dentro de un lote en particular son exactas, en el sentido de que todas están diseñadas para una función en específico y son intercambiables con relación a dicha función.
Para satisfacer ese propósito específico, dichas partes deben tener "alta calidad".
Aunque haya sido simple el escribir la frase "alta calidad", y a pesar de que la mayoría usamos el término "calidad" de una forma que nosotros pensamos que tiene sentido y es entendible para cualquiera, descubriremos que una definición útil de calidad, no es fácil de desarrollar.

Marco Conceptual

Existen, desde hace varios siglos, estándares de calidad que no son sustancialmente diferentes a los de las demás personas. Las estrategias y herramientas para aseguramiento de la calidad pueden haber cambiado, pero las expectativas básicas de los clientes, han sido prácticamente constantes durante mucho tiempo. Pensando que, por ejemplo, Henry Ford, no tuvo un entrenamiento especial en aseguramiento de calidad, creció en una cultura en la cual ya se trabajaba específicamente para obtener excelente desempeño en productos y servicios. De hecho, fue hace casi un siglo que él descubrió que podría obtener ventaja competitiva enfocando su atención en la calidad. Aun cuando la demanda de calidad ha sido parte de la naturaleza humana desde hace bastante tiempo, la cuantificación de la calidad y el establecimiento de estándares formales de calidad son decididamente un fenómeno del siglo XX. La atención sobre la calidad durante las últimas dos décadas, ha creado un mercado global de consumidores enfocados también a la calidad. Piensan que saben lo que significa, que la pueden reconocer cuando la ven y, muy importante, esperan (inclusive demandan) calidad en cada producto y servicio que compran. 
Los filósofos de la calidad Aunque todavía no se ha dado un acuerdo general sobre quién es filósofo y quién no, se ha decidido examinar las perspectivas de estas personas:
• Philip B. Crosby
• W. Edwards Deming
• Armand V. Feigenbaum
• Kaoru Ishikawa
• Joseph M. Juran
• Robert M. Pirsig
• Walter A. Shewhart
•Genishi Tagushi
En general, la definición de calidad que tienen estos expertos caen en dos categorías:
• El nivel uno de calidad es una manera simple de producir bienes o entregar servicios cuyas características medibles satisfacen un determinado set de especificaciones que están numéricamente definidas.
• Independientemente de cualquiera de sus características medibles, el nivel dos en calidad de productos y servicios son simplemente aquellos que satisfacen las necesidades de los clientes para su uso o consumo.
En resumen, el nivel uno de calidad significa trabajar en las especificaciones, mientras que el nivel dos significa satisfacer al cliente. (www.hacienda.go.cr, s.f.)

Normas de calidad

Nacionales e Internacionales
Es un documento, establecido por consenso y aprobado por un organismo reconocido (nacional o internacional), que proporciona, para un uso común y repetido, reglas, directrices o características para las actividades de calidad o sus resultados, con el fin de conseguir un grado óptimo de orden en el contexto de la calidad.

Normas de Calidad Nacionales

•             Normas Oficiales Mexicanas
•             Normas Mexicanas
NMX-CC
En México las normas de calidad son normas mexicanas emitidas por el INSTITUTO MEXICANO DE NORMALIZACIÓN Y CERTIFICACIÓN, A. C. (IMNC), y son prácticamente una versión traducida ISO 9000 “Sistemas de Aseguramiento de la Calidad SISTEMAS DE GESTIÓN DE LA CALIDAD Dichas normas tienen como finalidad asistir a las organizaciones, de todo tipo y tamaño, en la implementación y la operación de sistemas de gestión de la calidad eficaces y se clasifican en:

•             NMX-CC-9000-IMNC
•             NMX-CC-9001-IMNC
•             NMX-CC-9004-IMNC

NMX-CC-9000-IMNC: Describe los fundamentos de los sistemas de gestión de la calidad y especifica la terminología para los sistemas de gestión de la calidad.

NMX-CC-9001-IMNC: Especifica los requisitos para los sistemas de gestión de la calidad aplicables a toda organización que necesite demostrar su capacidad para proporcionar productos que cumplan los requisitos de sus clientes y los reglamentos que le sean de aplicación y su objetivo es aumentar la satisfacción del cliente.

NMX-CC-9004-IMNC: Proporciona directrices que consideran tanto la eficacia como la eficiencia del sistema de gestión de la calidad. El objetivo de esta norma es la mejora del desempeño de la organización y la satisfacción de los clientes y de otras partes interesadas.

Normas de Calidad Internacionales

Las principales organizaciones internacionales, emisoras de normas de calidad son: ISO (Organización Internacional de Estándares) y IEC (Comisión Electrotécnica Internacional).
ISO La Organización Internacional de Normalización es una federación mundial de organismos, la ISO colabora estrechamente con la Comisión Electrotécnica Internacional ( IEC ) en lo relativo a la normalización electrotécnica.

Las normas ISO-9000 son normas para sistemas de aseguramiento de calidad. Su utilidad radica en que es un estándar para proporcionar a un consumidor, la confianza de que un producto o servicio determinado cumple con los requisitos de calidad especificados. La nueva familia ISO 9000 versión 2000 consiste en las siguientes
    Normas:
•             ISO 9000:2000
•             ISO 9001:2000
•             ISO 9004:2000
•             ISO 19011:2002
ISO 9000:2000: Describe los principios y terminología de los sistemas de gestión de calidad.
ISO 9001:2000: Especifica los requisitos para los sistemas de gestión aplicables a toda organización que necesite demostrar su capacidad para proporcionar productos que cumplan los requisitos de sus clientes y los reglamentarios. Su fin es la satisfacción del cliente. Es la única norma sujeta a certificación.
ISO 9004:2000: Proporciona directrices que consideran tanto la eficacia como la eficiencia del sistema de gestión de la calidad. Su objetivo es la mejora en el desempeño de la organización.
ISO 19011:2002: Proporciona orientación relativa a las auditorías a sistemas de gestión de la calidad y de gestión ambiental.
Los beneficios tangibles de tales sistemas de la calidad incluyen:
•             Mejor diseño del producto.
•             Mejor calidad del producto.
•             Mejora de la confianza entre los clientes.
•             Mejora de la imagen y credibilidad de la empresa en los mercados internacionales, lo cual es esencial para el éxito en la actividad exportadora. (www.itescam.edu.mx, s.f.)

Estándares

Definición

Estándar puede ser conceptualizado como la definición clara de un modelo, criterio, regla de medida o de los requisitos mínimos aceptables para la operación de procesos específicos, con el fin asegurar la calidad en la prestación de los servicios de salud. Los estándares señalan claramente el comportamiento esperado y deseado en los empleados y son utilizados como guías para evaluar su funcionamiento y lograr el mejoramiento continuo de los servicios. Los estándares requieren ser establecidos con el fin de contar con una referencia que permita identificar oportunamente las variaciones presentadas en el desarrollo de los procesos y aplicar las medidas correctivas necesarias.


Procesos

Definición

Un proceso se puede definir como una serie de actividades, acciones o eventos organizados interrelacionados, orientadas a obtener un resultado específico y predeterminado, como consecuencia del valor agregado que aporta cada una de las fases que se llevan a cabo en las diferentes etapas por los responsables que desarrollan las funciones de acuerdo con su estructura orgánica.

 Instituciones

Definición

Una institución es cualquier sistema de reglas aceptadas colectivamente (procedimientos, prácticas) que nos permite crear hechos institucionales. Esas reglas tienen típicamente la forma de X cuenta como Y en C, donde a un objeto, persona o estado de cosas X se le asigna un status especial, el status Y, tal que el nuevo status hace posible que la persona u objeto desempeñe funciones que no podría realizar únicamente en virtud de su estructura física, pero requiere como una condición necesaria la asignación de tal status







Conclusión

Las normas internacionales ISO son las normas que controlan la calidad y la gestión continua de calidad, y han sido establecidas por la llamada Organización Internacional para la Estandarización (ISO) por sus siglas en inglés (International Organization for Standardization). Se aplican en cualquier tipo de organización, institución o actividad sistemática que esté orientada a básicamente a la producción de bienes o servicios. Se componen principalmente de estándares y guías que estén relacionados con todos los sistemas de gestión y herramientas específicas.
Estas normas son muy importantes para toda organización o empresa que se quiere distinguir de las demás puesto que esta norma es muy complicada de conseguir y por lo tanto da a la empresa un gran reconocimiento nacional e internacional, ya que los compradores de los productos ya sean nacionales o extranjeros, buscan siempre productos de calidad y el prestigio de la norma “ISO” es una gran garantía y no dudan en invertir su capital en estas organizaciones que se hacen notar por haber conseguido dicha certificación.
Estos son algunos de los beneficios que las normas ISO dejan a las empresas u organizaciones.

•             El monitoreo de los procesos principales asegurando que sean efectivos.
•             Mantiene los  registros adecuados de la gestión, de los procesos y de los procedimientos.
•             Mejora la satisfacción tanto de los clientes o los usuarios como de la empresa.
•             Mejora constantemente los procesos, operacionales y de calidad.
•             Reduce en gran parte los rechazos e incidencias en la producción.

En conclusión son muy buenos los beneficios que una norma como esta trae a la empresa, es bien sabido que el proceso de certificación es muy complicado, para ello se necesitan algunos de los siguientes pasos y procesos.
Para ser certificado bajo la norma ISO 9000, todas las organizaciones deben haber elegido el alcance de la actividad profesional que vaya a ser registrada, seleccionar un registro, someterse a una auditoria, y después de haber cumplido con éxito, tener una visita anual de inspección para seguir manteniendo la certificación. En caso de que el  auditor encontrase áreas de incumplimiento, dicha organización tiene hasta un plazo para adoptar o corregir medidas preventivas o correctivas, sin perder la vigencia de cierta certificación o la continuidad en el proceso de esta certificación dependiendo el caso.
Como hemos entendido esta norma está planeada para mejorar día a día todos los procesos productivos de las empresas que su objetivo es alcanzar las mejores proyecciones de ventas y más aún posicionarse en un mejor mercado.‎







 Bibliografía

 

www.hacienda.go.cr. (s.f.). Obtenido de www.hacienda.go.cr/centro/datos/Articulo/Qué%20es%20calidad.pdf
www.itescam.edu.mx. (s.f.). Obtenido de www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r56132.PPT




Existen dos tipos de factores:
  • ·         Factores que pueden ser medidos directamente (errores/KLDC/unidad de tiempo).
  • ·         Factores que solo pueden ser medidos indirectamente (la facilidad de uso o de mantenimiento).

En ambos casos se puede medir la calidad, debemos comparar el software (documentos, programas, etc.) con alguna referencia y llegar a una indicación de calidad.  


Loa factores desarrollados según el modelo de McCall, se centra en tres aspectos importantes de unos productos de software:
  • ·         Sus características operativas.  
  • ·         Su capacidad para soportar los cambios.  
  • ·         Su adaptabilidad a nuevos entornos. 



Corrección: mide el grado en que un programa satisface sus especificaciones y consigue los objetivos del usuario.  

Fiabilidad: mide el grado en que se puede esperar que un programa lleve a cabo sus funciones esperada con la precisión requerida.  

Eficiencia: mide la cantidad de recursos de computadora y de código requerido por un programa para que lleve a cabo las funciones especificadas.  

Integridad: es el grado en que puede controlarse el acceso al software o a los datos por personal no autorizado. 

Facilidad de Uso: es el esfuerzo requerido para aprender un programa e interpretar la información de entrada y de salida. 

Facilidad de Mantenimiento: es el esfuerzo requerido para localizar y arreglar programas.  

Facilidad de Prueba: es el esfuerzo requerido para probar un programa.  

Flexibilidad: es el esfuerzo requerido para modificar un sistema operativo.

Portabilidad: es el esfuerzo requerido para transferir un software de un hardware o un entorno de sistemas a otro. 

Reusabilidad: es el grado en que un programa (o partes de un programa) se puede reutilizar en otro.  

Facilidad de Interoperación: es el esfuerzo requerido para asociar un programa a otro. (Universidad de Morón - Facultad de Informática)



La administración de calidad definir procedimientos y estándares a utilizar en el desarrollo de software y comprobar que todos los ingenieros de software lo sigan.
Los buenos administradores tienen como propósito desarrollar una “cultura de calidad”, en donde cada integrante del grupo es motivado para que logre un alto nivel de calidad del producto a desarrollar.


La administración de calidad se estructura en tres actividades principales:


Es el establecimiento de un marco de trabajo de procedimientos y estándares organizacionales que conduce a desarrollar un software de calidad.

Los procedimientos de aseguramiento de calidad se documentan en un manual de calidad que define el proceso de desarrollo.

Existen dos tipos de estándares:
  • ·         Estándares del Producto: son estándares del producto, como la estructura del documento de requerimientos, el documento de codificación que define como utilizar un lenguaje de programación, estándares de documentos.
  • ·         Estándares del Proceso: son estándares que definen los procesos a seguir durante el desarrollo. Incluyen definición de los procesos de especificación, de diseño, y de validación, y una descripción de la documentación a generar.




Se inicia en las primeras etapas de desarrollo en forma independiente de la planificación del proyecto general. Define la calidad del producto deseado, define como valorar la calidad (porque para los desarrolladores pesan distintos factores de calidad).

Estructura del Plan de Calidad:

Introducción del Producto: contiene la descripción del producto a desarrollar, el mercado al cual se dirige y las expectativas de calidad del producto.

Planes del Producto: contiene la fecha de terminación del producto, lo recursos necesarios, las responsabilidades junto con la distribución y servicio.

Descripción del Proceso: contiene los procesos de desarrollo y de servicios a utilizar para el desarrollo y la administración del producto a desarrollar.

Metas de Calidad: contiene las metas y planes de calidad para el producto a desarrollar, incluye una identificación y una justificación de los atributos de calidad importantes.
Riesgos y Administración de Riesgos: contiene los riesgos claves que pudieran afectar la calidad del producto de desarrollo y el plan de contingencias.

Implica vigilar el procedimiento de desarrollo para asegurar que se sigan los procedimientos de aseguramiento y los estándares de calidad.
El proceso de control de calidad tiene su propio conjunto de procedimientos e informes a utilizar durante el desarrollo.
Existen varios métodos de para validar la calidad de un proceso o producto, el más utilizado son las Revisiones Técnicas Formales. (Universidad de Morón - Facultad de Informática)



 


Universidad de Morón - Facultad de Informática, C. D. (s.f.).