Questions d'entretiens chez Introduction to Scrum Master

Scrum Master: Scrum master est celui qui facilite une mêlée, garantit qu'il n'y a pas d'obstacles pendant la livraison du produit ou du livrable et que sa qualité est conforme aux attentes. Le Scrum Master agit en tant que médiateur entre l'équipe et si dans le cas, des problèmes sont rencontrés sur le chemin du travail et ne sont pas nécessairement le chef d'équipe. Scrum master veille au respect du framework Scrum. Cela aide l'équipe à s'améliorer. Le rôle a également été appelé facilitateur d'équipe ou chef de service pour refléter les deux aspects.

Scrum peut être défini comme une méthodologie agile grâce à laquelle les équipes peuvent résoudre des problèmes complexes, tout en livrant efficacement des livrables de haute qualité.

Scrum c'est:

  • Pas lourd
  • Facile
  • Difficile d'acquérir une expertise sur

Scrum est l'opposé d'une collection complexe de parties interdépendantes qui lui sont obligatoirement associées. L'empirisme qui est une méthode scientifique mise en œuvre par lui.

Le cadre Scrum se compose de trois rôles. Le cadre aide à la bonne collaboration des membres de l'équipe et améliore son efficacité. Ces trois rôles forment ensemble l'équipe de mêlée. Ces trois rôles sont le propriétaire du produit, Scrum Master et l'équipe de développement.

Les créateurs de Scrum, Ken Schwaber et Jeff Sutherland ont décrit précisément Scrum avec précision. Scrum a été clairement défini dans cette description. Cette définition est composée des rôles, des événements, des artefacts et des règles de Scrum qui les lient ensemble.

Dans cet article 2019 Scrum master Interview Questions, nous présenterons les principales questions d'entrevue Scrum master les plus importantes et les plus fréquemment utilisées. Ces questions aideront les élèves à construire leurs concepts autour de Scrum master et les aideront à réussir l'entretien.

Partie 1 - Questions d'entrevue Scrum Master (de base)

Cette première partie couvre les questions et réponses de base de Scrum Master

1. Nommez les principaux composants Hadoop du cluster Hadoop?

Répondre:
Hadoop est un framework qui simplifie une grande quantité de données via des serveurs de base. Il se compose de plusieurs parties. Ces pièces comprennent:

  • Nœud de nom: nœud maître qui relie les informations des nœuds de données et l'emplacement de stockage des données.
  • Noeud de nom secondaire: Si le noeud de nom principal rencontre des problèmes, le noeud de nom secondaire agit comme un seul.
  • HDFS (Hadoop Distributed File System): il gère le stockage du cluster Hadoop.
  • Nœuds de données: les nœuds de données sont également appelés nœuds esclaves. Toutes les données sont enregistrées sur des nœuds esclaves pour une utilisation ultérieure.
  • YARN (Yet Another Resource Negotiator): Un cadre logiciel pour écrire les applications et traiter de grandes quantités de données.

2. Comment le stockage des données est-il planifié dans le cluster Hadoop?

Répondre:
Le stockage peut être calculé en utilisant la formule:

(Stockage = ingestion quotidienne de données * réplication).

Le stockage est déterminé par la quantité à conserver.

3. Quelle est la taille du bloc de données par défaut dans Hadoop et comment est-il modifié?

Répondre:
La taille de bloc divise les données en blocs et les enregistre sur divers nœuds de données. La taille des blocs est généralement de 128 Mo, ce qui peut être encore modifié.

Passons aux prochaines questions d'entretien de Scrum master.

4. Mentionnez les recommandations pour le dimensionnement du nœud de nom?

Répondre:
Le nœud maître peut être configuré à un stade très initial en respectant strictement les recommandations suivantes.

  • Processeurs: un processeur avec jusqu'à 6 à 8 cœurs est nécessaire pour les processus.
  • Mémoire RAM: il doit y avoir un minimum de 24 à 96 Go de RAM pour le serveur de traitement des données et des travaux.
  • Stockage: les données HDFS ne sont pas enregistrées sur le nœud maître. 1-2 To peuvent être utilisés comme stockage.

Comme le futur programme de travail n'est pas facile à concevoir, un cluster peut être conçu en utilisant du matériel comme le CPU, la RAM ou la mémoire qui peut être facilement modifié.

5. Nommez quelques-uns des produits SAS disponibles sur le marché?

Répondre:
De nombreux produits SAS sont vendus sur le marché. Certains d'entre eux sont les suivants:

  • Base SAS - C'est une installation de gestion des données et de reporting
  • SAS / STAT - C'est une méthode d'analyse statistique
  • SAS / GRAPH - C'est une méthodologie graphique
  • SAS / OR - Il aide à la recherche opérationnelle
  • SAS / IML - Langage matriciel interactif
  • SAS / AF - C'est une interface de facilité d'application
  • SAS / QC - Il aide au contrôle de la qualité
  • SAS / ETS - Il aide à l'analyse économétrique et chronologique

6. Décrivez l'étape des données et l'étape du programme dans les programmes SAS?

Répondre:
Étape de données: il récupère les données de diverses sources, les modifie et les inclut avec les données collectées à partir de nombreuses autres sources et établit des rapports. L'une des procédures appelées «procs» utilise ces données bien organisées et préparées.

Étape de la procédure: il lit les données, les analyse et produit une grande quantité de données en sortie, puis des procédures pour les gérer.

Partie 2 - Questions et réponses de Scrum Master (avancées)

Jetons maintenant un coup d'œil aux questions avancées de Scrum Master.

7. Mentionnez les caractéristiques importantes de SAS?

Répondre:
Les caractéristiques importantes de SAS sont les suivantes:

  • Analytique
  • Accès et gestion des données
  • Rapports et graphiques
  • Visualisation
  • Des solutions d'affaires

8. Mettre en lumière les erreurs de programmation courantes commises dans l'application SAS?

Répondre:
Les erreurs importantes commises par l'application SAS sont les suivantes:

  • Exécution non systématique
  • Point-virgule manquant
  • Longue
  • Valeur manquante

Passons aux prochaines questions d'entretien de Scrum master.

9. Définir PDV dans SAS? Quelles sont ses fonctions?

Répondre:
Lors de la formation du tampon d'entrée lors de la compilation des données traitées pour le stockage des enregistrements via un fichier externe, un vecteur de données de programme ou PDV est créé. L'ensemble de données est créé à la fois par une mémoire appelée PDV.

PDV est une mémoire logique qui peut exécuter les fonctions suivantes:

  • L'ensemble de données est créé un à la fois.
  • Lors de la formation du tampon d'entrée lors de la compilation des données traitées pour le stockage des enregistrements via un fichier externe, un vecteur de données de programme ou PDV est créé.
  • Ensuite, les ensembles de données sont créés par l'application SAS et sont stockés dans la mémoire logique.

10. Quand PROC MEANS et PROC FREQ sont-ils utilisés?

Répondre:

  • PROC MEANS: Il est utilisé lors du traitement d'une variable numérique.
  • PROC FREQ: Il est utilisé pour traiter une variable catégorielle.

11. Comment le facteur de réplication est-il modifié dans le cluster Hadoop?

Répondre:
Le facteur de réplication 3 n'est pas un attribut obligatoire. Le facteur de réplication 1 peut également être défini. Le cluster Hadoop fonctionne également dans le facteur de réplication 5. Un matériel minimum est requis et l'efficacité du cluster augmente après la configuration de la valeur par défaut.

Le stockage de données est multiplié par le facteur de réplication lors de l'augmentation du facteur de réplication, ce qui augmenterait à son tour les exigences matérielles.

Articles recommandés

Cela a été un guide pour la liste des questions et réponses d'entrevue Scrum master afin que le candidat puisse réprimer facilement ces questions d'entrevue Scrum master. Ici, dans cet article, nous avons étudié les meilleures questions d'entrevue de Scrum master qui sont souvent posées lors des entretiens. Vous pouvez également consulter les articles suivants pour en savoir plus

  1. Questions d'entretiens chez Six Sigma
  2. Qu'est-ce que SAS
  3. Questions d'entretiens chez SASS
  4. Questions d'entretiens chez Hadoop Admin